guten morgen
nun habe ich eine weile lang einige der neuen features der kommenden browser probiert.
speziell den ie 9 preview 7.
da kann man ja einige der kommenden neuen features testen, unter anderem das beschleunigen von berechnungen mithilfe der graphikkarte. dazu gibt es einige demos und benches, um das auch zu testen.
was grundsätzlich natürlich sinn macht, da es doch deutliche performancesprünge ermöglicht.
nun ist mir beim betrachten meines enegiekosten messgerätes aufgefallen, das man diese performancesprünge, durch die implementierung der berechnungen auf die gpu, leztlich auf kosten eines deutlich erhöhten stromverbrauchs erreicht. weil eine gtx 460 sich automatisch unter last höher taktet, weil sie ja zu tun bekommt.
da aktuelle recht leistungsfähige graphikkarten wie z.b eine gtx 460 doch deutlich mehr strom unter last benötigen, als im idle oder leerlauf.
vorher hat das meine cpu berechnet, natürlich in deutlich geringerer geschwindgkkeit, aber auch deutlich stromsparender.
nun muss die gtx 460 ran und benötigt dafür natürlich eine menge strom.
bei mir macht das c.a 50 watt an mehrverbauch. wie es bei anderen karten aussieht, weiss ich nicht.
bei kleinen graphikakrten werden natürlich geringere verbrauchswerte anfallen.
aber z.b bei grösseren modellen wie der gtx 470/480 wird das noch deutlicher.
die natürlich nochmals höhere leistungen liefern, aber auch nochmals mehr strom benötigen.
ich z.b bin bisher mit meiner gtx 460 sehr zufrieden. was den stromverbrauch im normalen alltagsbetrieb angeht. da die in normalen alltagssituationen bisher sehr sparsam strom verbraucht und die meisten aufgaben im stromsparmodus erledigt.
ich finde das ist generell ein interessantes thema. wenn man den graphikkarten immer mehr aufgaben "aufbürdet".
während man bei den cpu schon sehr auf den stromverbauch schaut, ist das bei graphikkarten doch noch weniger wichtig.
man weiss zwar, das die beim spielen so und soviel maximal nimmt. das ist relativ egal, da man da eben leistung in form von fps benötigt. aber im normalen alltagsbetrieb ist dieser verbrauch bisher meistens deutlich geringer.
nun schuftet so eine gtx 460 in zukunft vieleicht stundenlang im internet, wo immer mehr inhalte mithilfe der graphikkarte erledigt werden. dann steigt auch der stromverbrauch enorm an.
während man dann ein paar watt vieleicht bei der cpu einspart, nimmt sich eine graphikkarte locker 50 watt oder mehr.
ich finde das doch wirklich beachtlich und warte, was sich da in zukunft hardwaremässig tun wird. vieleicht bekommen graphikkarten noch kleine extra chips für solche berechnungen, man wirbt nicht mehr mit leistung in dem und dem spiel, sondern bencht graphikkarten in ihrer leistung bei diesen hardware beschleunigten inhalten.
in szenarios, wo graphikarten richtig schuften wie z.b bei folding@home, video umrechnung und ähnlichem ist der stromverbauch ja bald höher, als in den ursprünglichen aufgaben wie z.b bilddarstellung oder spiele.
tschüss burki
nun habe ich eine weile lang einige der neuen features der kommenden browser probiert.
speziell den ie 9 preview 7.
da kann man ja einige der kommenden neuen features testen, unter anderem das beschleunigen von berechnungen mithilfe der graphikkarte. dazu gibt es einige demos und benches, um das auch zu testen.
was grundsätzlich natürlich sinn macht, da es doch deutliche performancesprünge ermöglicht.
nun ist mir beim betrachten meines enegiekosten messgerätes aufgefallen, das man diese performancesprünge, durch die implementierung der berechnungen auf die gpu, leztlich auf kosten eines deutlich erhöhten stromverbrauchs erreicht. weil eine gtx 460 sich automatisch unter last höher taktet, weil sie ja zu tun bekommt.
da aktuelle recht leistungsfähige graphikkarten wie z.b eine gtx 460 doch deutlich mehr strom unter last benötigen, als im idle oder leerlauf.
vorher hat das meine cpu berechnet, natürlich in deutlich geringerer geschwindgkkeit, aber auch deutlich stromsparender.
nun muss die gtx 460 ran und benötigt dafür natürlich eine menge strom.
bei mir macht das c.a 50 watt an mehrverbauch. wie es bei anderen karten aussieht, weiss ich nicht.
bei kleinen graphikakrten werden natürlich geringere verbrauchswerte anfallen.
aber z.b bei grösseren modellen wie der gtx 470/480 wird das noch deutlicher.
die natürlich nochmals höhere leistungen liefern, aber auch nochmals mehr strom benötigen.
ich z.b bin bisher mit meiner gtx 460 sehr zufrieden. was den stromverbrauch im normalen alltagsbetrieb angeht. da die in normalen alltagssituationen bisher sehr sparsam strom verbraucht und die meisten aufgaben im stromsparmodus erledigt.
ich finde das ist generell ein interessantes thema. wenn man den graphikkarten immer mehr aufgaben "aufbürdet".
während man bei den cpu schon sehr auf den stromverbauch schaut, ist das bei graphikkarten doch noch weniger wichtig.
man weiss zwar, das die beim spielen so und soviel maximal nimmt. das ist relativ egal, da man da eben leistung in form von fps benötigt. aber im normalen alltagsbetrieb ist dieser verbrauch bisher meistens deutlich geringer.
nun schuftet so eine gtx 460 in zukunft vieleicht stundenlang im internet, wo immer mehr inhalte mithilfe der graphikkarte erledigt werden. dann steigt auch der stromverbrauch enorm an.
während man dann ein paar watt vieleicht bei der cpu einspart, nimmt sich eine graphikkarte locker 50 watt oder mehr.
ich finde das doch wirklich beachtlich und warte, was sich da in zukunft hardwaremässig tun wird. vieleicht bekommen graphikkarten noch kleine extra chips für solche berechnungen, man wirbt nicht mehr mit leistung in dem und dem spiel, sondern bencht graphikkarten in ihrer leistung bei diesen hardware beschleunigten inhalten.
in szenarios, wo graphikarten richtig schuften wie z.b bei folding@home, video umrechnung und ähnlichem ist der stromverbauch ja bald höher, als in den ursprünglichen aufgaben wie z.b bilddarstellung oder spiele.
tschüss burki
Zuletzt bearbeitet: