Wie man ein HD-Kabel verwendet, um meinen PC mit meinem Monitor zu verbinden.

Also benutze ich derzeit ein VGA-Kabel, möchte aber stattdessen ein hdmi-Kabel verwenden, da ich denke, dass es zu einer besseren Qualität führen würde. Aber anscheinend kann man das hdmi-Kabel nicht einfach so anschließen und spielen wie mit dem VGA-Kabel?????

Also dachte ich, ich würde einfach mein HDmi-Kabel von meinem Gehäuse an meinen Monitor anschließen und das war’s. Aber wenn ich mein VGA-Kabel abziehe, zeigt mein Monitor „Check signal ….“ und wenn ich den hdmi einstecke, ist es immer noch derselbe.

HDMI

1. Also habe ich etwas recherchiert und anscheinend musst du auf 60Hz und nicht auf 59Hz für hdmi sein? Ist das wahr? Also habe ich versucht, das in meinen Windows 8 zu ändern, indem ich mit der rechten Maustaste auf Desktop -> Bildschirmauflösung -> erweiterte Einstellungen -> Monitor -> auf 60Hz geändert habe und dann auf Übernehmen klicke. Aber es kehrt immer wieder auf 59???? zurück.

Aber wenn ich ins Catalyst Control Center gehe, steht da, dass ich bei 60Hz bin????? (Und wenn ich es in CCC auf 59 Hz ändere, geht es auf 60 zurück….) Einen monitor mit hdmi anschließen und nutzen.  Und wenn ich dann Piriform’s Speccy verwende, steht da, dass ich bei 59Hz bin? Also weiß ich nicht einmal, mit welcher Frequenz ich bin.

2. Außerdem gibt es 2 hdmi-Ports in meinem PC: den von meinem Motherboard und den von meiner Grafikkarte, ich habe beide ausprobiert, kein Erfolg. Und welche soll ich verwenden, wenn ich es schaffe, dass es funktioniert?

Irgendwelche Ideen? Danke!

PS: Das Problem ist nicht das Kabel, da ich es benutzt habe, um es an meinen Fernseher anzuschließen, und es funktioniert gut.
gepostet von iliketothinknu an Computer & Internet (6 Antworten insgesamt) 2 Benutzer haben dies als Favorit markiert.

Oftmals werden Monitore die Eingangsänderung nicht automatisch erkennen, so dass Sie sie manuell von VGA auf HDMI umschalten müssen. Gibt es eine Quelle/Eingabetaste auf Ihrem Monitor?
veröffentlicht von zinon um 18:20 Uhr am 3. August 2013[2 Favoriten].

Versuchen Sie, den Monitor bei angeschlossenem HDMI-Kabel aus- und einzuschalten. Windows kann es als neues Gerät erkennen, wenn es die EDID-Informationen über den HDMI sieht, während der Monitor eingeschaltet wird, und der Monitor sollte nach einem Signal an allen seinen Anschlüssen suchen, wenn er eingeschaltet wird.

Welcher Ausgabeport an Ihrem Computer primär ist, hängt von Ihrem speziellen Computer ab (Motherboard oder Grafikkarte, je nachdem, ob Sie mit integrierter Grafik arbeiten oder nicht).

Und die Aktualisierungsrate ist nicht etwas, mit dem man sich anlegen sollte. Der Monitor enthält die richtige Aktualisierungsrate in den Informationen, die er über das HDMI-Kabel an den Computer sendet, und der CCC sollte sie aufnehmen. Welchen AMD/ATI-Chipsatz oder GPU verwenden Sie?
veröffentlicht von snuffleupagus um 20:13 Uhr am 3. August 2013

(Und versuchen Sie, die Stromversorgung des Monitors zu trennen und nach einer Weile wieder anzuschließen, wenn der Netzschalter nicht funktioniert. Manchmal benötigen Sie diesen härteren Leistungszyklus, damit der Monitor die Erkennung auslöst).
veröffentlicht von snuffleupagus um 20:18 Uhr am 3. August 2013

Ich hatte schon einmal eine Situation, in der ein PC sich weigert, einen Videoausgangsport zu erkennen, bis er bei aktiviertem Port neu gestartet wird. Versuchen Sie also, das Gerät herunterzufahren, Kabel so anzuschließen, wie Sie es sich wünschen, und dann Ihren Computer wieder einzuschalten.
veröffentlicht von haykinson um 22:15 Uhr am 3. August 2013

Sie sollten wahrscheinlich DVI anstelle von HDMI verwenden.

Ihre Grafikkarte erkennt HDMI möglicherweise nicht als „primäre“ Anzeige. Möglicherweise treten auch Probleme mit HDCP (Videokopierschutz) auf – HDMI hat diese Probleme, DVI nicht.

In Bezug auf Frage #2 sollten Sie die Ports auf Ihrer Grafikkarte verwenden, nicht die auf Ihrem Motherboard (Ihre Grafikkarte überschreibt sie, so dass sie wahrscheinlich deaktiviert sind).

Wenn Sie auf die Verwendung von HDMI bestehen, können Sie mit einem DVI->HDMI-Adapter bessere Ergebnisse erzielen (sieht so aus). Wenn Sie eine Aftermarket-Videokarte haben, kam sie wahrscheinlich mit einer von diesen, oder sonst können Sie eine für ein paar Dollar bekommen. Es ist ein passiver Adapter, da HDMI und DVI (meist) das gleiche digitale Signal sind.

  • HDMI ist buchstäblich das gleiche wie DVI (digital) mit einer zusätzlichen Audioverbindung und Unterstützung für HDCP (deshalb funktionieren die Adapter, sie wechseln nur den Anschluss).
  • HDCP ist kein Problem, es sei denn, Sie spielen geschützte Inhalte ab, aber HDCP funktioniert nicht über einen Adapter.
  • Wenn überhaupt, verursachen Sie Probleme mit HDCP, indem Sie einen HDMI/DVI-Adapter verwenden.

Worin besteht der Unterschied zwischen HDMI und DVI? Was ist besser?
DVI ist eines der gängigsten digitalen Videokabel, die Sie heute auf Desktops und LCD-Monitoren sehen werden. Es ist dem VGA-Anschluss am ähnlichsten, mit bis zu 24 Pins und Unterstützung für analoge und digitale Videos. DVI kann bis zu 1920×1200 HD-Video streamen, oder mit Dual-Link-DVI-Anschlüssen können Sie bis zu 2560×1600 Pixel unterstützen. Einige DVI-Kabel oder -Ports können weniger Pins enthalten, wenn sie für Geräte mit niedrigerer Auflösung ausgelegt sind, so dass Sie darauf achten müssen. Wenn Ihr Port jedoch alle Pins enthält, kann er die maximale Auflösung problemlos unterstützen. Das größte Problem bei DVI ist, dass es standardmäßig keine HDCP-Verschlüsselung unterstützt. Wenn also Ihre Hardware nur DVI-Ports enthält, können Sie möglicherweise keine Full HD Blu-Rays und andere HD-Inhalte wiedergeben.

Sie können DVI an einen HDMI-Anschluss eines neueren Monitors mit einem kleinen Digitalwandler anschließen.

Da DVI jedoch kein Audio unterstützt, müssen Sie beim Anschluss an einen HDMI-Anschluss ein separates Audiokabel verwenden, was DVI zu einem der vielseitigeren neueren Anschlüsse macht. Es ist sowohl rückwärts als auch vorwärts kompatibel, wenn auch ohne jeglichen Komfort. Sie können auch einen älteren Monitor anschließen, der nur einen VGA-Anschluss mit einem DVI-Anschluss enthält, und zwar ganz einfach über einen ähnlichen DVI-VGA-Konverter, wenn Ihr Videoausgang analoges Video unterstützt.

Und ein Adapter löst normalerweise kein Erkennungsproblem. DVI- und HDMI-Monitore werden auf die gleiche Weise erkannt. Der Computer sieht die EDID-Informationen vom Display kommen. DVI—>HDMI mit einem Adapter zu verwenden hilft nur dann, wenn der Computer die Erkennung der Handhabung über einen Port, aber nicht über den anderen, überfliegt, normalerweise aufgrund eines unangenehmen Problems auf der Computerseite.

Es gibt eine ungewöhnliche Situation, in der ein Display nicht signalisiert, dass es die gleichen Auflösungen über HDMI wie DVI verarbeiten kann, d.h. PC-Bildschirmauflösungen sind nicht in der vom HDMI-Anschluss gesendeten EDID enthalten. Dieser Leitfaden behandelt dieses Thema, aber es ist wirklich ungewöhnlich (außer manchmal in Panels, die als HD-Fernseher konzipiert sind, die als Monitore verwendet werden), besonders angesichts der Tatsache, wie lange HDMI jetzt schon verfügbar ist. Und ein Adapter wird dieses Problem normalerweise nicht lösen (oder auch nicht, wenn ich ihm begegnet bin), sondern erfordert einen konfigurierbaren HDMI-Schalter, der die Monitor-EDID zugunsten einer benutzerdefinierten EDID oder einer Software-Übersteuerung unterdrückt.

Schließlich wissen wir nicht, ob der OP einen Onboard-Chipsatz oder einen diskreten Grafikprozessor oder beides hat, und ob er beides hat, ob das Onboard-Video auch aktiv ist oder nicht, wird oft durch die BIOS-Einstellungen gesteuert.