6 obserwujących
20 notek
24k odsłony
  423   0

Wszystko się zużywa?

Panie i panowie, dziewczęta i chłopcy, ladies and gentlemen, dzisiaj czas na ogólny przegląd tego, co mogło się zużyć w ostatnich latach w sprzęcie IT (samoistnie lub z niewielką pomocą).

Zaczęło się od tego, że ostatnio znalazłem dosyć ciekawą dwuodcinkową serię m.in. na temat pamięci lampowych i ferrytowych


Od tamtego czasu dużo się zmieniło, głupotą jednak byłoby twierdzić, że absolutnie wszystkie działania producentów podporządkowane są temu, żeby urządzenia były nietrwałe. Tych, którzy czytali moje wcześniejsze wpisy, być może zaszokuję, że powiem wprost - planowane postarzanie zdarza się nagminnie często, ale... (zawsze musi być jakieś ale) bywamy też ograniczeni technologią.

Ktoś może powiedzieć, że sprawa jest prosta i nie ma o czym mówić. Częściowo jest to racja. Pomyślmy sobie, że właśnie kupiliśmy jakiś nowy gadżet. Od razu po zakupie jest dotykany, naciskany, skręcany, ściskany czy szarpany. Z czasem pojawiają się na nim pierwsze rysy czy wgniecenia, tu i tam tłuszcz z palców, a może i woskowina z uszu, kropelki śliny, czy inne płyny. Do tego dochodzi wilgoć, kondensująca się na przykład przy przejściu z zimnego wilgotnego dworu do ciepłego pokoju.

Brrr. Okropieństwo.

Ale to nie wszystko...

Elementy elektroniczne – układy scalone

Poniżej zastosuję pewne uproszczenia, za które z góry przepraszam:

  1. układy scalone składają się z tysięcy, milionów czy miliardów elementów, które realizują funkcje w arytmetyce operującej na cyfrach 0 i 1. Przykładem takiej funkcji jest operacja AND zwracająca 1 na wyjściu elementu w sytuacji, gdy na wszystkich wejściach jest 1. Można powiedzieć, że 1 fizycznie uzyskane jest przez stan „prąd płynie” i 0 uzyskane jest przez stan „prąd nie płynie”.
  2. elementy półprzewodnikowe użyte do budowy układów charakteryzują się tym, że prąd płynie przez nie tylko wtedy, gdy dostarczamy określone natężenie i napięcie (nie mogą być zbyt małe, ale i nie mogą być za duże, bo wtedy dojdzie do zwarcia, element zmieni się w przewodnik, i prąd od tego momentu będzie zawsze w nim płynąć). Dokładniej wyjaśnia to pasmowa teoria przewodnictwa.
  3. temperatura układu wzrasta nie tylko przy przepływie wyższego prądu / napięcia, ale również przy szybszym taktowaniu (dane i instrukcje „przesuwane” wraz z kolejnymi taktami zegara odmierzającego czas)
  4. oprócz prądu o złych parametrach wrogiem układów jest zbyt duża temperatura. Teoretycznie obecne konstrukcje są bardziej odporne niż kiedyś (zawierają czujniki, które wymuszają wyłączenie albo obniżenie taktowania w sytuacjach krytycznych), ale prawa fizyki są nieubłagane i szczególnie ciągła praca w pobliżu granicy przegrzania może powodować degradację samego układu albo elementów towarzyszących (stąd raczej należy unikać bardzo licznych laptopów z procesorami Intela, które osiągają 100C w sytuacji, gdy temperatura krytyczna  to 105C).  Uniwersalna zasada: zawsze trzeba dbać o stan chłodzenia (wentylatory nie mogą być zapchane kurzem, kratki wentylacyjne zasłonięte, itp.)
  5. zwarcie może wywołać zalanie cieczą - nie musi to być faktyczny z nią kontakt, czasem wystarczy kondensacja pary wodnej (nawiasem mówiąc, producenci umieszczają w komputerach specjalne kropki, które zmieniają kolor również w ostatnim przypadku, co może być podstawą do unieważnienia gwarancji)
  6. przy bardziej zaawansowanym procesie technologicznym prądy i napięcia są mniejsze (układ się mniej grzeje), również drogi przepływu danych są krótsze. Z uwagi na to można wykorzystać wyższe taktowanie i przetworzyć więcej danych - układ M1 Apple wykonany jest w procesie 5nm (wartość oznacza wielkość elementów), i to jest jednym z powodów jego większej efektywności od konstrukcji AMD (7nm) czy Intela (14 lub 10nm)

Jeżeli mówimy o czymś takim jak „normalne” zużycie – układ prawidłowo użytkowany powinien wytrzymać długo, o ile… jest prawidłowo zbudowany. Istnieje bowiem takie zjawisko jak dyfuzja (przyspieszająca wraz z temperaturą), i choć tego nie widzimy, to jeśli położymy jeden związek obok drugiego, to elektrony na ich styku potrafią się przenikać. Z tego względu stosuje się różne domieszki, które powodują, że tego typu operacje wymagają (zbyt) dużo energii. Wyjaśnię to obrazowo – woda łatwo wsiąka w glebę; ale nie widzimy tego, jeśli wlejemy ją (wodę oczywiście) do szklanego naczynia.

W ostatnich latach dało się też zauważyć działanie producentów płyt głównych, którzy chcieli zwiększyć wydajność obliczeniową (czytaj: mieć lepsze wyniki niż konkurencja), i podawali na procesory Ryzen bardzo duże wartości napięć w trybie turbo. Sam to widziałem z Asrockiem TB3 ITX X570 (najwyższa wartość VCore wynosiła 1,48V), robili to również inni. Teoretycznie chwilowa praca z taką wartością nie powinna zaszkodzić tym układom, z drugiej strony w internecie na forach pojawiały się np. informacje o 1,3V i wskazanie, że dłuższa praca z wyższymi napięciami powoduje degradację Ryzenów z serii 3000 (być może dotyczy to tylko konkretnych egzemplarzy, i związane jest z tzw. szerzeniem FUD)

Kiedyś mówiono, że kontrola jest najwyższą formą zaufania. Istnieje obecnie wiele programów, dzięki którym możemy na bieżąco kontrolować napięcia i temperatury różnych elementów. W MacOS można np. wymienić TG Pro czy Temp Monitor, w Windows speedFan (nie jest już zbytnio uaktualniany) czy hwInfo, a pod Linuxem np. Psensor w połączeniu z czujnikami wbudowanymi w jądro.

Warto też wspomnieć, że jedną z przyczyn braku działania układów może być słabe przymocowanie do podłoża (obecna cyna nie zawiera ołowiu, i z czasem może ulec degradacji; dodatkowo płyty główne mogą ulegać różnym naprężeniom). Jest z tym związana pewna ciekawa historia. Około 2011 komputery właściwie wszystkich producentów miały problemy z kartami graficznymi Nvidii. Bardzo dużo serwisów proponowało tzw. rebailling, czyli ponowne lutowanie układu, ale najwyraźniej nie rozwiązywało ono prawdziwego problemu:



Jeżeli chodzi o zwarcia, to np. na kanale Daniela Rakowieckiego jest wideo z naprawy laptopa, do którego do złącza jack podłączono 48V (w sieci można również znaleźć schematy tzw. „USB Killera”, którego zadaniem jest przepuszczenie przez kontroler na płycie głównej zbyt dużego ładunku elektrycznego, a więc doprowadzenie do jego zwarcia).

Ciekawe jest również wideo o naprawie Asus VivoBook 15 i o błędach starszych Apple (w obu wypadkach mowa jest o braku chłodzenia albo przegrzewaniu jednego układu przez drugi)

Lubię to! Skomentuj Napisz notkę Zgłoś nadużycie

Więcej na ten temat

Komentarze

Inne tematy w dziale Technologie