PlusPedia wird derzeit technisch modernisiert. Aktuell laufen Wartungsarbeiten. Für etwaige Unannehmlichkeiten bitten wir um Entschuldigung; es sind aber alle Artikel zugänglich und Sie können PlusPedia genauso nutzen wie immer.

Neue User bitte dringend diese Hinweise lesen:

Anmeldung - E-Mail-Adresse Neue Benutzer benötigen ab sofort eine gültige Email-Adresse. Wenn keine Email ankommt, meldet Euch bitte unter NewU25@PlusPedia.de.

Hinweis zur Passwortsicherheit:
Bitte nutzen Sie Ihr PlusPedia-Passwort nur bei PlusPedia.
Wenn Sie Ihr PlusPedia-Passwort andernorts nutzen, ändern Sie es bitte DORT bis unsere Modernisierung abgeschlossen ist.
Überall wo es sensibel, sollte man generell immer unterschiedliche Passworte verwenden! Das gilt hier und im gesamten Internet.
Aus Gründen der Sicherheit (PlusPedia hatte bis 24.07.2025 kein SSL | https://)

Bei PlusPedia sind Sie sicher: – Wir verarbeiten keine personenbezogenen Daten, erlauben umfassend anonyme Mitarbeit und erfüllen die Datenschutz-Grundverordnung (DSGVO) vollumfänglich. Es haftet der Vorsitzende des Trägervereins.

PlusPedia blüht wieder auf als freundliches deutsches Lexikon.
Wir haben auf die neue Version 1.43.3 aktualisiert.
Wir haben SSL aktiviert.
Hier geht es zu den aktuellen Aktuelle Ereignissen

Overkill (Informatik): Unterschied zwischen den Versionen

Aus PlusPedia
Zur Navigation springen Zur Suche springen
Fmrauch (Diskussion | Beiträge)
Softwareentwicklung: vielzu umständlich
Fmrauch (Diskussion | Beiträge)
erstmal alles an Text raus, was nicht zum Thema gehört
Zeile 1: Zeile 1:
Der {{enS}}e Begriff '''[[Overkill]]''' bedeutet in der '''[[Informatik]]''':
{{Inuse}}
* eine zu umfangreiche Umsetzung von technisch gesichteten Möglichkeiten im [[Anwendungsfall]], von der das Gesamtkonzept nicht profitiert,
Der {{enS}}e Begriff '''[[Overkill]]''' bedeutet in der '''[[Informatik]]''' den Absturz eines oder mehrerer Programm bis hin zum Ausfall des [[Computer]]s. Ursache können sein:
* eine übermäßige [[Optimierung]], die die [[Leistung (Informatik)|Leistung]] nicht erhöht, sondern verringert.
* eine zu umfangreiche Umsetzung von technisch gesichteten Möglichkeiten im [[Anwendungsfall]],
 
* eine übermäßige [[Optimierung]], die die [[Leistung (Informatik)|Leistung]] nicht erhöht, sondern verringert;
Ein eindeutiges Beispiel für einen Overkill in der Informatik ist, wenn die gleiche Aufgabe mehrfach bearbeitet wird, obwohl das Ergebnis praktisch schon vorliegt (z.B. durch das Fehlen einer [[Abbruchbedingung]] oder [[Verzweigung (Programmierung)|Verzweigung]]<ref>computerhope.com: [http://www.computerhope.com/jargon/e/endlessl.htm „Endless Loop“]</ref>).
* mehrere gleichzeitig laufende Programme bzw. Prozesse, die vom Arbeitsspeicher nicht mehr verarbeitet werden können.
 
Der sogenannte [[Overhead (EDV)|Overhead]] dabei ist die Zeit die in Anspruch genommen wird, bis die Information dort ankommt, wo sie logisch als nächstes benötigt wird ([[Worst Case#Informatik|„worst case“]]), abzüglich der durch die [[Informationstheorie]] mindestens erwarteten [[Laufzeit (Informatik)|Laufzeit]] der Information ([[Best Case#Informatik|„best case“]]).
Zusätzlicher Overhead entsteht, wenn die Information weniger [[Nutzdaten]] enthält.
 
Bei alten Computern kann man manchmal schneller in den Tastaturpuffer schreiben, als die Zeichen am Bildschirm angezeigt werden. Läuft die Tastatur asynchron, können Zeichen „verschluckt“ werden;<ref>YouTube: [http://www.youtube.com/watch?v=62pc1ES9XI8 Java Robot Controls Mouse Position] (hier: Mauseingabe)</ref> oder es erscheint gleich eine ganze Zeile mit dem Buchstaben, den man gerade gedrückt hat.<ref>YouTube: [http://www.youtube.com/watch?v=-OF-U744FqQ The Magic Piano]</ref>


== Software ==
== Software ==
Zeile 23: Zeile 18:
In der Softwareentwicklung kann z.B. ein [[Algorithmus]], der alle möglichen Werte der Reihe nach durchprobiert bis der positiv-Treffer gefunden ist, einen gewaltigen Overhead bei der Ausführung produzieren. Dabei können Überlegungen zur effizienten Speichernutzung<ref>Schell, Dominik: [http://www.opus.ub.uni-erlangen.de/opus/volltexte/2009/1544 Dynamische Programm-Code-Verwaltung und -Optimierung für eingebettete Systeme]</ref> die [[Laufzeit]] verkürzen.
In der Softwareentwicklung kann z.B. ein [[Algorithmus]], der alle möglichen Werte der Reihe nach durchprobiert bis der positiv-Treffer gefunden ist, einen gewaltigen Overhead bei der Ausführung produzieren. Dabei können Überlegungen zur effizienten Speichernutzung<ref>Schell, Dominik: [http://www.opus.ub.uni-erlangen.de/opus/volltexte/2009/1544 Dynamische Programm-Code-Verwaltung und -Optimierung für eingebettete Systeme]</ref> die [[Laufzeit]] verkürzen.


== Computerarchitektur ==
In der [[Computerarchitektur]] kann es z.B. ein Overkill sein, wenn eine 1000-MBit-[[Ethernet]] [[Schnittstelle]] durch die anderen an dem [[I/O]] Prozess beteiligten Komponenten
(wie [[Festplatte]]n, [[CPU]]s, deren [[Bussystem]]e, und die zugehörigen Softwarekomponenten wie [[Betriebssystemkern|Kernel]], [[Gerätetreiber|Treiber]], [[Protokoll (Informatik)|Protokolle]], [[Filesystem]]e, ...)
technisch nicht ausgelastet werden kann.
Sollte die [[Festplatte]] nur 60 [[Byte#Bedeutungen von Dezimal- und Binärpräfixen|Mbyte]]/s liefern, kann die Netzwerkverbindung in einer Richtung nur ungefähr zur Hälfte ausgelastet werden.
Wenn also auch nur ein Glied in der Kette langsamer ist, entsteht ein Overhead (hier: zeitliches Defizit) bei der [[Netzwerkkarte]].
Die Analyse eines solchen „bottlenecks“ lässt sich hier noch durch „[[Trial and error]]“ herausfinden.
== Hardwarearchitektur ==
In der [[Hardwarearchitektur]] werden z.B. bei einem [[CPU]] [[Cache]] unterschiedlich schnell reagierende [[Random-Access Memory|RAM]] Typen eingesetzt; mit dem Ziel durch Cachingalgorithmen die Ausführung des Codes zu beschleunigen. Die aktiveren Teile sollten dann in den schnelleren Bereichen liegen, sofern sie nicht zu umfangreich sind und herabgestuft werden müssen.<ref>Hyunjin Lee, Sangyeun Cho, Bruce R. Childers: [http://www.cs.pitt.edu/cast/papers/lee-isvlsi07.pdf Performance of Graceful Degradation for Cache Faults]</ref>
Bei einem [[Random-Access Memory|RAM]]-Modul mit [[Fehlerkorrekturverfahren#Fehlerverdeckung|ECC]] oder [[Parity]] entsteht Overhead durch die Verwendung dafür notwendiger zusätzlicher [[Elektrisches Bauelement|Bauteile]].
Diese [[Elektrisches Bauelement|Bauteile]] werden verwendet um die [[Datenintegrität]] zu schützen. Besitzt das Modul noch das [[Speichermodul|Chipkill]] Feature, kann ein ganzer Speicherbereich bei einer Fehlfunktion deaktiviert werden. Diese Features werden besonders bei Rechnern für Dauerbetrieb eingesetzt.
Soll dem Ausfall eines ganzen Systems durch den Ausfall einer kritischen Komponente vorgebeugt werden, bedient man sich der (mehrfach-) [[redundant]]en Auslegung der Komponente (z.B. des [[Netzteil]]s oder der [[Festplatte]]).
Eine der hauptsächlich begrenzenden Faktoren bei den gebräuchlichen Architekturen ist die begrenzte Leistung des [[Hauptprozessor]]s in Verbindung mit dem [[Hauptspeicher]] und den [[Chipsatz|Chipsätzen]], über die weitere [[Peripheriegerät|Peripherie]] (z.B. [[USB]] Geräte) angebunden sind.
Die Integration auf Hardwareebene ([[Hardwarebeschleunigung]]) und deren [[Miniaturisierung]] und die Verschmelzung von Aufgaben wird zunehmend wichtiger<ref>heise online: [http://www.heise.de/newsticker/meldung/AMD-Details-der-2011-kommenden-Prozessorkerne-Bobcat-und-Bulldozer-857374.html AMD Details der 2011 kommenden Prozessorkerne Bobcat und Bulldozer] vom 12.11.2009</ref><ref>computerbase.de: [http://www.computerbase.de/news/hardware/prozessoren/intel/2010/november/intel-webseite-bestaetigt-sandy-bridge-modelle Sandy Bridge Modelle] vom 15.11.2010</ref>, da die Aufgaben auch immer komplexer und nicht beliebig auf [[Subsystem]]e ([[Betriebssystemkern|Kernel]] an erster Stelle<ref>Bowman, Ivan: [http://oss.org.cn/ossdocs/linux/kernel/a1/index.html Conceptual Architecture of the Linux Kernel]</ref>) aufgeteilt werden können.


Eine [[CPU]] über die Werte des Herstellers zu übertakten ([[Overclocking]]), kann die Lebensdauer herabsetzen<ref>c't > Videos: [http://www.heise.de/ct/artikel/Risiken-des-Uebertaktens-1130620.html Risiken des Übertaktens]</ref>, falsche Berechnugen liefern, und insbesondere bei zusätzlicher Erhöhung der [[Prozessorkern|CPU Kern]] [[Elektrische Spannung|Spannung]] den [[Stromverbrauch]] [[überproportional]] erhöhen.
Eine [[CPU]] über die Werte des Herstellers zu übertakten ([[Overclocking]]), kann die Lebensdauer herabsetzen<ref>c't > Videos: [http://www.heise.de/ct/artikel/Risiken-des-Uebertaktens-1130620.html Risiken des Übertaktens]</ref>, falsche Berechnugen liefern, und insbesondere bei zusätzlicher Erhöhung der [[Prozessorkern|CPU Kern]] [[Elektrische Spannung|Spannung]] den [[Stromverbrauch]] [[überproportional]] erhöhen.
Zeile 49: Zeile 23:
Weitere [[CPU]] Entwicklungen können bei einer höheren [[Taktsignal|Taktfrequenz]] die auftretenden Fehler wirksam durch zusätzliche [[Logikbaustein|Logik]] korrigieren<ref>Intels Resilient Computing: [http://www.golem.de/1005/74983.html Schnellere Prozessoren durch mehr Rechenfehler]</ref>.
Weitere [[CPU]] Entwicklungen können bei einer höheren [[Taktsignal|Taktfrequenz]] die auftretenden Fehler wirksam durch zusätzliche [[Logikbaustein|Logik]] korrigieren<ref>Intels Resilient Computing: [http://www.golem.de/1005/74983.html Schnellere Prozessoren durch mehr Rechenfehler]</ref>.


<br />
== Hardware ==
 
Der [[Bildschirm]] stellt ein Bild im korrekten [[Seitenverhältnis]] mit schwarzen Balken („letterbox“) oben und unten dar (dabei geht zusätzliche Bildinformation verloren, da entweder die [[Grafikkarte]] oder die Videologik [[Flüssigkristallbildschirm|TFT-Monitor]] die Grafik, zusätzlich zu der [[Skalierung]] der [[Grafik-Software|Software]], noch einmal skaliert), es erscheint vertikal langezogen („stretched“), flimmert oder es werden nur Teile dargestellt.
== Spezialfälle ==
 
=== [[Peripheriegerät]]e ===
 
1. Einen [[Flüssigkristallbildschirm|TFT-Monitor]] zu verwenden, dessen native [[Bildauflösung|Auflösung]] über der gelieferten [[Bildauflösung|Auflösung]] der [[Grafikkarte]] liegt, ist Overkill.
Die zu wenig vorhandenen Informationen werden durch [[Interpolation]] ergänzt, wobei ein Qualitätsdefizit in Form von [[Unschärfe]] entsteht.
Umgekehrt entsteht ein Overhead bei der [[Grafikkarte]], falls die [[Bildauflösung|Auflösung]] des [[Dünnschichttransistor|TFT]] [[Bildschirm]]s geringer ist als die der Grafik.
Dies ist ebenfalls mit einem Qualitätsverlust verbunden, der im Vergleich aber geringer ausfällt, weil der Informationsgehalt vor der (bildgebenden) [[Rasterung]] höher war.
[[Röhrenmonitor]]e sind in dieser Hinsicht flexibler, weil Sie einen dynamischen [[Fokus]] verwenden, der analog nur durch die [[Rasterung]] der [[Kathodenstrahlröhre]] Maske begrenzt wird. Eine doppelte [[Rasterung]] wie bei der Verwendung eines [[Dünnschichttransistor|TFT]] [[Bildschirm]]s geschieht nicht.
 
In manchen Werbeprospekten wird gerne die Bezeichnung 'dpi' falsch, als Einheit für die [[Bildauflösung|Auflösung]] angegeben (1280 x 1024 dpi u.ä.), was im Bezug auf die Erwartungen die man eventuell im Druckbereich haben könnte, ein völlig falsches Leistungsvermögen vermitteln kann.
 
Da die meisten [[Drucker (Peripheriegerät)|Drucker]] das Bild zeilenweise (zur Beschleunigung streifenweise aus Sicht des [[Druckkopf]]es) drucken, gibt 'dpi' die Anzahl der maximal vom [[Druckkopf]] in einer Linie von 2,54 cm (enstpricht einem [[Zoll (Einheit)|Zoll)]] druckbaren Punkte an. Das wären dann bei einem [[Dünnschichttransistor|TFT]] [[Bildschirm]] mit 1280 [[Pixel]] Horizontalauflösung 1280 Punkte pro [[Zoll (Einheit)|Zoll]], in einer Pixelzeile. Schaut man nun weiter, wobei man nicht weiß, dass [[dpi]] ein eindimensionaler Begriff ist, würden unfassbare 1,3 [[Megapixel]] in einem Quadrat von 2,54 cm Kantenlänge auf dem [[Bildschirm]] darstellbar sein; nach [[Pythagoras]] im Bezug auf die Paneldiagonale von 19" [[Zoll (Einheit)|Zoll]] aber eben nur 1310720 Pixel oder Punkte auf dem gesamten Bildschirm. Die eigentliche Panelgröße ist dabei oft kleiner als die Angabe in [[Zoll (Einheit)|Zoll]] (durch Rahmen, Verkleidung) für den Monitor.
 
Außerdem verfügt ein [[Drucker (Peripheriegerät)|Drucker]] aber nur über wenige individuelle Farben (z.B. Cyan + Maganta + Yellow + Key Black) oder C+lC+M+lM+Y+K (2 zusätzliche leichte Farben), die durch [[Druckraster|Rasterung]] (z.B. nach [[Floyd-Steinberg-Algorithmus|Floyd-Steinberg]] [[Fehlerverteilung]]) durch Mischung auf dem Papier und optischer Überlagerungseffekte das Druckbild ergeben.
[[Grafikkarte]]n können in der Regel 2^24 (rund 16 Millionen) individuelle Farben im Format: Rot + Grün + Blau + 256 Helligkeits-Abstufungen pro Farbe liefern, viele gängige [[Flachbildschirm]]e haben aber einen begrenzten [[Farbraum]], der eher nur Tausende Farben darstellen kann.
[[Röhrenmonitor]]e haben diese Einschränkung durch die anaolge Signalverarbeitung nicht.
 
Bei astronomisch anmutenden Zahlenangaben ist es daher sinnvoll sich vorzustellen, ab diese Angaben extern bei der Ausgabe relevant, oder doch nur interne Übertreibung ist.
 
Außerdem kann eine [[Bildauflösung|Auflösung]] von 1280x1024 [[Pixel]]n (mit einem festen [[Seitenverhältnis]] von 5:4 bei einem [[Flüssigkristallbildschirm|TFT-Monitor]]) besonders ungünstig sein, wenn die [[Digitalkamera]] ein natives 4:3 Format liefert:
Der [[Bildschirm]] stellt es entweder im korrekten [[Seitenverhältnis]] mit schwarzen Balken („letterbox“) oben und unten dar (dabei geht zusätzliche Bildinformation verloren, da entweder die [[Grafikkarte]] oder die Videologik [[Flüssigkristallbildschirm|TFT-Monitor]] die Grafik, zusätzlich zu der [[Skalierung]] der [[Grafik-Software|Software]], noch einmal skaliert) oder zusätzlich vertikal langezogen („stretched“).
 
2. Eine [[WLAN]] [[Steckkarte|Karte]] mit [[Verschlüsselung]] zu verwenden, die wie bei [[Wired Equivalent Privacy|WEP]] eklatante Sicherheitsmängel mit sich bringt, ist ebenfalls Overkill.
Hier ist der Zeitaufwand - sofern ein Sicherheitsrisiko besteht - zum Umgehen der [[Verschlüsselung]] dermaßen gering, dass man auch gleich ohne [[Verschlüsselung]] arbeiten kann.
Eine [[Verschlüsselung]] produziert immer Overhead (hier: insbesondere bei [[Nutzdaten]] und [[Sendeleistung]]), weil die Veränderungen an der Interpretationslogik dem Empfänger auch mitgeteilt werden müssen.
 
3. Eine vergessene [[Steckkarte|Karte]] im Rechner (z.B. [[ISDN]] [[Steckkarte|Karte]] im [[PCI-Slot]]) verbraucht unnötig Strom, wenn Sie überhaupt nicht für einen Anschluss an das [[ISDN]] verwendet wird. Nicht genutzte „onboard“ Komponenten (wie [[Firewire]], [[WLAN]]/[[Ethernet]], [[Serielle Schnittstelle|DSUB-Serial]], evtl. auf dem Board vorhandene Sound- und Grafikchips wenn man stattdessen eine [[Steckkarte|Karte]] verwendet, usw.) kann man (bei [[x86]] [[Personal Computer|PC]]s) im [[BIOS]] abschalten, wodurch zusätzliche [[Interrupt]]-Zeit frei wird, was den [[Computer]] beschleunigt.
 
=== Digitalisierung ===
 
Bei der [[Digitalisierung]] von [[Audio]]-Information entsteht hinsichtlich der [[analog]]en Natur der [[Bias (Elektronik)|Bias]]-Einstellung immer ein (wenn auch noch so geringer) Overhead.
Dies liegt daran, dass bei falscher Einstellung der [[Dynamikbereich]] nicht vollständig ausgenutzt werden kann.
Auf [[digital]]er Seite kann das zum Datenverlust mit [[Übersteuern (Signalverarbeitung)|Clipping]], bis zur Zerstörung der [[Lautsprecher]] durch Verzerrungen auf [[Analogsignal|analoger]] Seite führen.
 
Ob ein Overkill bei dem [[Codec]] (z.B. bei [[Abtastrate]] und Bittiefe) oder der Wandlung (z.B. selektierte Bauteile) vorliegt, ist letztendlich [[subjektiv]] oder Teil der Produktphilosophie.
 
=== Verarbeitung digitaler Daten ===
 
Bei der Weiterverarbeitung von [[digital]]en Tönen, Bildern oder Videos kann man zusätzlichen Overhead hinsichtlich Qualität vermeiden.
Da bei einer wiederholt verlustbehafteten [[Datenkompression|Kompression]] die [[Fehlerrate]] steigt, empfiehlt sich als Ausgangsmaterial das Originalformat zu verwenden.
 
Im Bereich des [[Videoschnitt]]s werden (sogar in der Praxis von [[Fernsehstudio]]s) immer wieder schwache [[Codec]]s eingesetzt, obwohl durch eine einfache Auswahl eines besseren [[Codec]]s die Qualität nachhaltig verbessert werden könnte.
Insbesondere durch (nicht adaptive) [[Rekodierung#Videotechnik|Rekodierung]] in anderen [[Fernsehstudio]]s, beim Kabel- oder Satellitennetzbetreiber, bis hin zum [[Internet]], wird wertvolle Bandbreite und mögliche Qualität verschenkt.
 
Betrachtet man die Konvertierung vom [[NTSC]] in das [[Phase Alternating Line|PAL]] Format, sind dabei 10 von 60 Bildern auf Seite von [[NTSC]] ein Overhead, weil [[Phase Alternating Line|PAL]] nur mit 50 Bildern pro Sekunde (fps) arbeitet. Auf der anderen Seite entsteht bei [[Phase Alternating Line|PAL]] zusätzlicher Overhead, weil besonders die Anzahl der vertikalen Zeilen bei [[NTSC]] geringer ist als bei [[Phase Alternating Line|PAL]].
 


Bei der Generierung von [[Vorschaubild]]ern („thumbnails“), sogar auf Grundlage des [[JPEG]] Formats, kann durch spezielle Methoden nur soviel Information aus der [[Bilddatei]] gezogen werden, wie beispielsweise für eine kleinere Darstellung von Thumbnails oder Bildern im [[Webbrowser]] erforderlich ist.
Bei [[Audio]]-Informationen kann eine falsche Einstellung des [[Dynamikbereich]]s zu Verzerrungen führen.
Leider wird oft die gesamte Bildinformation übertragen und dekodiert, und dann erst auf die eigentliche Größe [[Skalierung|skaliert]].


== Einzelnachweise ==
== Einzelnachweise ==

Version vom 13. November 2025, 16:19 Uhr

Fehler beim Erstellen des Vorschaubildes: Datei fehlt Achtung! Die Seite wird gerade bearbeitet.
Dieser Artikel oder Abschnitt wird gerade bearbeitet. Um Bearbeitungskonflikte zu vermeiden, warte bitte mit Änderungen, bis diese Markierung entfernt ist. Eine Begründung steht auf der Diskussionsseite, dort kannst du nachfragen oder wende dich an den Bearbeiter auf seiner Diskussionsseite.

Der englische Begriff Overkill bedeutet in der Informatik den Absturz eines oder mehrerer Programm bis hin zum Ausfall des Computers. Ursache können sein:

  • eine zu umfangreiche Umsetzung von technisch gesichteten Möglichkeiten im Anwendungsfall,
  • eine übermäßige Optimierung, die die Leistung nicht erhöht, sondern verringert;
  • mehrere gleichzeitig laufende Programme bzw. Prozesse, die vom Arbeitsspeicher nicht mehr verarbeitet werden können.

Software

In Hinsicht auf Software kann ein Produkt mehr Funktionalität enthalten, als der Anwender nutzen kann oder als es sinnvoll für den Einsatzzweck ist. Dabei spielen auch die Peripheriegeräte eine Rolle, doch kann es zur Überforderung auch durch zu viele Optionen und Konfigurationsmöglichkeiten kommen.

So konnte es bei einem Computerspiel wie Tetris zur Situation Game Over kommen, wenn der Spieler es nicht schaffte, die Steine genau genug anzuordnen. Setzte der Spieler einen Stein daneben, entsteht jedesmal Overhead (erkennbar durch Lücken in einer Zeile).

Betriebssysteme können überflüssige Erweiterungen (insbesondere Hintergrunddienste, Daemons) und überladene Funktionen enthalten, die den eigentlichen Arbeitsablauf behindern oder die Gesamt-Performance des Computersystems schwächen. Manche angeblich der Sicherheit dienende Software]] kann durch Suggestion, z.B. dass sie zwangläufig notwendig oder erforderlich ist, einen völlig anderen Zweck erfüllen als angegeben.[1] Bei vernetzten Computern kann sie die Datensicherheit kompromittieren; z.B. durch einen Pufferüberlaufs[2] oder eine NOP-Rutsche.[3] (Mnemonic für NOP: „no operation“).

Bei bestimmten EDV Anlagen verläuft die Kommunikation der Softwarekomponenten untereinander und mit der Hardware insgesamt umständlich und langsam ab, z.B. bei Datenbanken.[4], Browser Erweiterungen).

In der Softwareentwicklung kann z.B. ein Algorithmus, der alle möglichen Werte der Reihe nach durchprobiert bis der positiv-Treffer gefunden ist, einen gewaltigen Overhead bei der Ausführung produzieren. Dabei können Überlegungen zur effizienten Speichernutzung[5] die Laufzeit verkürzen.


Eine CPU über die Werte des Herstellers zu übertakten (Overclocking), kann die Lebensdauer herabsetzen[6], falsche Berechnugen liefern, und insbesondere bei zusätzlicher Erhöhung der CPU Kern Spannung den Stromverbrauch überproportional erhöhen. Außerdem kann es zum Ausfallen bestimmter integraler Bestandteile führen (beispielsweise zuerst nur der FPU), die mit Datenverlust oder einem Absturz verbunden sind (wenn Fehler nicht abgefangen werden). Durch die übermäßig entstehende Hitze, die zunehmend zu einer Elektronenmigration führt, kann eine dauerhafte Beschädigung der CPU eintreten. Dabei löst sich Material ab wodurch letztendlich ein Kurzschluss entsteht. Weitere CPU Entwicklungen können bei einer höheren Taktfrequenz die auftretenden Fehler wirksam durch zusätzliche Logik korrigieren[7].

Hardware

Der Bildschirm stellt ein Bild im korrekten Seitenverhältnis mit schwarzen Balken („letterbox“) oben und unten dar (dabei geht zusätzliche Bildinformation verloren, da entweder die Grafikkarte oder die Videologik TFT-Monitor die Grafik, zusätzlich zu der Skalierung der Software, noch einmal skaliert), es erscheint vertikal langezogen („stretched“), flimmert oder es werden nur Teile dargestellt.

Bei Audio-Informationen kann eine falsche Einstellung des Dynamikbereichs zu Verzerrungen führen.

Einzelnachweise

Weblinks

PDFs

Andere Lexika

  • Dieser Artikel wurde in der Wikipedia gelöscht.