Supportnet Computer
Planet of Tech

Supportnet / Forum / HW-Sonstiges

Leistungsunterschied DVI-Analog





Frage

Hallo, im Internet ist vieles zu finden. LEider nicht so richtig eine Antwort auf die folgende Frage: Wie groß ist der Leistungsunterschied zwischen DVI und analog, bzw. was für ein Leistungsunterschied(nur auf die Bildqualität, oder geht durch das umwandeln Prozessorkraft verloren)? Das es sinnvoller ist komplett digital auszunutzen ist klar, bzw. leuchtet mir ein. Aber ich persönlich finde den Unterschied nicht so auffällig beim betrachten. Ein Bekannter hat den gleichen Monitor wie ich, nur per DVI angeschlossen. Wenn ich jetzt nur Bildqualität hinzugewinnen würde, dann sehe ich diese nicht, und ich würde mir keine neue Grafikkarte kaufen(meine alte hat nämlich nur VGA). Wenn aber der Prozessor auch etwas entlastet werden würde, dann würde ich eher wechseln. Über eine kurze Aufklärung würde ich mich sehr freuen. Danke bergi

Antwort 1 von Supermax

Die Umwandlung des digitalen Signals vom Grafikchip geschieht mittels eines eigenen Chips (D/A-Wandler) auf der Grafikkarte. Diese Umwandlung fordert weder Rechenleistung vom Grafikchip noch von der CPU. Der einzige Vorteil von DVI gegenüber VGA ist, daß die zweimalige Umwandlung (zuerst digital->analog und dann analog->digital) nicht stattfindet; außerdem lassen sich einige kopiergeschützte Medien (Blu-Ray, HD-DVD) nur noch digital ausgeben, um zu verhindern, daß die "analoge Lücke" zum Mitschneiden des kopiergeschützten Materials genutzt wird.

Antwort 2 von xmax

hi, die cpu wird nicht so bemerkbar entlastet, da schon seit langem den ganzen berechnungsintensiven pat übernehmen zum größten teil die grafikkarten selbst, also sie verarbeitet (gesteuert durch anwendungen) die datensetze.
so direkt (beim bildbetrachten) dvi mit analog kann man nicht vergleichen, da es eben zwei verschiedene welten sind die zum gleichen ergebnis kommen- man sieht ein bild.
der unterschied ist aber, was muss alles auf dem weg dahin passieren um ein analoges bild betrachten zu können.
der computer hat keine ahnung was überhaupt ein analoges signal ist, da er nur 0&1 versteht, um es zu verstehen braucht er a/d-wandler (für die andere richtung d/a-wandler) die teil seiner peripherie sind.
der vorgang selbst nennt sich konvertieren (oft zum schluss wieder konvertiert), wie das beispielsweise mit dem vga-signal pasiert, bis es auf dem bildschirm erscheint.
kurz dazu, es ist kompliziert und können verluste dabei entstehen.
bei dvi wird mit den rohdaten gearbeitet, also digital in/out.

mfg

Antwort 3 von bergi2

Danke an euch beide

Vorallem danke für einfach, kurz und verständliches von Supermax!!!!!!

Ich möchte kostenlos eine Frage an die Mitglieder stellen:


Ähnliche Themen:


Suche in allen vorhandenen Beiträgen: