Adam
2020-05-01 13:02:38 UTC
Witajcie.
Taki problem:
serwerek ThinkServer x3200 M2, na nim ATI ES1000.
Serwer ma wyłącznie jedno wyjście VGA (a przynajmniej tyle widzę) i tak
jest podpięty do monitora - czyli kabel DB15.
Natomiast linuxy widzą aktywne VGA i DVI.
Monitor fizycznie ma 1920x1080.
Linux na złącze VGA wystawia sygnał 1024x768.
W linuxie w ustawieniach monitora widać dwa monitory: VGA (max 1024x768)
oraz DVI (max 1920x1080).
Instalowałem kilka dystrybucji (szukam, bo wymagania specyficzne) z
gałęzi debianowych i ubuntu, wersje od 18 do 20. Różne środowiska: KDE,
xfce, itd.
Praktycznie każda widzi monitor tak samo.
Problem jest taki, że jak zdezaktywuję nieistniejący(?) DVI, to albo nic
się nie dzieje, albo tracę sygnał na monitor.
Jeśłi nic się nie dzieje, to nagle VGA otrzymuje możliwość ustawienia
wyższych rozdzielczości. Czasem udaje się włączyć 1920, ale najczęściej
albo dostaję czarny pusty ekran, nawet bez myszy, albo monitor zgłasza
brak sygnału. Mogę się przełączyć na inną konsolę tekstową (Crtl-Alt-Fn).
W ustawieniach monitora nie ma automatycznego wycofania zmian, jak w
windowsach, że zmiana niepotwierdzona w ciągu kilkunastu sekund zostaje
wycofana.
Będę jeszcze próbował walczyć za pomocą xrandr.
Drugi problem - serwer wstaje długo. Samo testowanie macierzy na starcie
trwa kilka minut (nie można skrócić), do tego kolejne minuty na testy
pozostałych podzespołów.
Nie ma już chyba możliwości ustawienia monitora tak, jak dawniej bywało,
z konsoli za pomocą xsetup czy setup.
Pytanie 1:
gdzie są zapisywane ustawienia monitora dla danego środowiska? Bo zmiana
rozdzielczości dotyczy tylko środowiska, w którym tę zmianę utworzyłem.
Pytanie 2:
jeśli źle ustawię coś i monitor straci sygnał (albo go nie może
zdekodować), to mogę przejść do innej konsoli tekstowej. Jak mogę z
tejże zabić uruchomione środowisko x?
Taki problem:
serwerek ThinkServer x3200 M2, na nim ATI ES1000.
Serwer ma wyłącznie jedno wyjście VGA (a przynajmniej tyle widzę) i tak
jest podpięty do monitora - czyli kabel DB15.
Natomiast linuxy widzą aktywne VGA i DVI.
Monitor fizycznie ma 1920x1080.
Linux na złącze VGA wystawia sygnał 1024x768.
W linuxie w ustawieniach monitora widać dwa monitory: VGA (max 1024x768)
oraz DVI (max 1920x1080).
Instalowałem kilka dystrybucji (szukam, bo wymagania specyficzne) z
gałęzi debianowych i ubuntu, wersje od 18 do 20. Różne środowiska: KDE,
xfce, itd.
Praktycznie każda widzi monitor tak samo.
Problem jest taki, że jak zdezaktywuję nieistniejący(?) DVI, to albo nic
się nie dzieje, albo tracę sygnał na monitor.
Jeśłi nic się nie dzieje, to nagle VGA otrzymuje możliwość ustawienia
wyższych rozdzielczości. Czasem udaje się włączyć 1920, ale najczęściej
albo dostaję czarny pusty ekran, nawet bez myszy, albo monitor zgłasza
brak sygnału. Mogę się przełączyć na inną konsolę tekstową (Crtl-Alt-Fn).
W ustawieniach monitora nie ma automatycznego wycofania zmian, jak w
windowsach, że zmiana niepotwierdzona w ciągu kilkunastu sekund zostaje
wycofana.
Będę jeszcze próbował walczyć za pomocą xrandr.
Drugi problem - serwer wstaje długo. Samo testowanie macierzy na starcie
trwa kilka minut (nie można skrócić), do tego kolejne minuty na testy
pozostałych podzespołów.
Nie ma już chyba możliwości ustawienia monitora tak, jak dawniej bywało,
z konsoli za pomocą xsetup czy setup.
Pytanie 1:
gdzie są zapisywane ustawienia monitora dla danego środowiska? Bo zmiana
rozdzielczości dotyczy tylko środowiska, w którym tę zmianę utworzyłem.
Pytanie 2:
jeśli źle ustawię coś i monitor straci sygnał (albo go nie może
zdekodować), to mogę przejść do innej konsoli tekstowej. Jak mogę z
tejże zabić uruchomione środowisko x?
--
Pozdrawiam.
Adam
Pozdrawiam.
Adam