Supportnet / Forum / HW-Sonstiges
Leistungsunterschied DVI-Analog
Frage
Hallo,
im Internet ist vieles zu finden. LEider nicht so richtig eine Antwort auf die folgende Frage:
Wie groß ist der Leistungsunterschied zwischen DVI und analog, bzw. was für ein Leistungsunterschied(nur auf die Bildqualität, oder geht durch das umwandeln Prozessorkraft verloren)?
Das es sinnvoller ist komplett digital auszunutzen ist klar, bzw. leuchtet mir ein. Aber ich persönlich finde den Unterschied nicht so auffällig beim betrachten. Ein Bekannter hat den gleichen Monitor wie ich, nur per DVI angeschlossen. Wenn ich jetzt nur Bildqualität hinzugewinnen würde, dann sehe ich diese nicht, und ich würde mir keine neue Grafikkarte kaufen(meine alte hat nämlich nur VGA). Wenn aber der Prozessor auch etwas entlastet werden würde, dann würde ich eher wechseln.
Über eine kurze Aufklärung würde ich mich sehr freuen.
Danke
bergi
Antwort 1 von Supermax
Die Umwandlung des digitalen Signals vom Grafikchip geschieht mittels eines eigenen Chips (D/A-Wandler) auf der Grafikkarte. Diese Umwandlung fordert weder Rechenleistung vom Grafikchip noch von der CPU. Der einzige Vorteil von DVI gegenüber VGA ist, daß die zweimalige Umwandlung (zuerst digital->analog und dann analog->digital) nicht stattfindet; außerdem lassen sich einige kopiergeschützte Medien (Blu-Ray, HD-DVD) nur noch digital ausgeben, um zu verhindern, daß die "analoge Lücke" zum Mitschneiden des kopiergeschützten Materials genutzt wird.
Antwort 2 von xmax
hi, die cpu wird nicht so bemerkbar entlastet, da schon seit langem den ganzen berechnungsintensiven pat übernehmen zum größten teil die grafikkarten selbst, also sie verarbeitet (gesteuert durch anwendungen) die datensetze.
so direkt (beim bildbetrachten) dvi mit analog kann man nicht vergleichen, da es eben zwei verschiedene welten sind die zum gleichen ergebnis kommen- man sieht ein bild.
der unterschied ist aber, was muss alles auf dem weg dahin passieren um ein analoges bild betrachten zu können.
der computer hat keine ahnung was überhaupt ein analoges signal ist, da er nur 0&1 versteht, um es zu verstehen braucht er a/d-wandler (für die andere richtung d/a-wandler) die teil seiner peripherie sind.
der vorgang selbst nennt sich konvertieren (oft zum schluss wieder konvertiert), wie das beispielsweise mit dem vga-signal pasiert, bis es auf dem bildschirm erscheint.
kurz dazu, es ist kompliziert und können verluste dabei entstehen.
bei dvi wird mit den rohdaten gearbeitet, also digital in/out.
mfg
so direkt (beim bildbetrachten) dvi mit analog kann man nicht vergleichen, da es eben zwei verschiedene welten sind die zum gleichen ergebnis kommen- man sieht ein bild.
der unterschied ist aber, was muss alles auf dem weg dahin passieren um ein analoges bild betrachten zu können.
der computer hat keine ahnung was überhaupt ein analoges signal ist, da er nur 0&1 versteht, um es zu verstehen braucht er a/d-wandler (für die andere richtung d/a-wandler) die teil seiner peripherie sind.
der vorgang selbst nennt sich konvertieren (oft zum schluss wieder konvertiert), wie das beispielsweise mit dem vga-signal pasiert, bis es auf dem bildschirm erscheint.
kurz dazu, es ist kompliziert und können verluste dabei entstehen.
bei dvi wird mit den rohdaten gearbeitet, also digital in/out.
mfg
Antwort 3 von bergi2
Danke an euch beide
Vorallem danke für einfach, kurz und verständliches von Supermax!!!!!!
Vorallem danke für einfach, kurz und verständliches von Supermax!!!!!!