9 obserwujących
33 notki
41k odsłon
  283   0

Biednemu wiatr w oczy wieje? Gdzie ma być granica odpowiedzialności producenta?

Youtuberzy i popularne serwisy w większości testują nowe produkty, i poniekąd z jednej strony nie ma co się temu dziwić.

A gdyby spojrzeć na coś po dłuższym czasie? Czy możemy wtedy zżymać się na różne niedomagania? Jeżeli nie, to czy powinniśmy mieć wtedy jakiekolwiek oczekiwania względem producentów?

Sezon ogórkowy w pełni. Dzisiaj wezmę na warsztat kilka dosyć standardowych produktów (czasem konkretnych modeli) i przedstawię bardzo luźne uwagi na temat tego, na ile poważnie jesteśmy traktowani.

Płyty główne

Firmy mają do wyboru ileś chipsetów od wiodących dostawców (np. X570 od AMD czy ICH-9 od Intela), każdy ze ściśle określoną specyfikacją (wbudowaną obsługą określonej ilości złączy, pamięci, itp.) Do tych układów dodawany jest laminat i złącza, odpowiednie układy zasilające, karty dźwiękowe, WI-FI czy kontrolery temperatur.

Oczywisty jest fakt, że projekt całości częściowo jest przygotowywany na podstawie wersji referencyjnej, i producent końcowy w dużej mierze okazuje się być monterem gotowych klocków (zdarzają się firmy takie jak Lenovo, które zaczynają tworzyć na własną rękę najbardziej podstawowe elementy typu konwertery napięć, ale są one w mniejszości).

Kiedyś można było sobie zamieniać firmware między konstrukcjami różnych producentów


Obecne oprogramowanie układowe wciąż w dużej mierze jest standaryzowane, i często składa się z gotowych elementów – np. paczka UEFI zawiera informację o dostępnych / włączonych opcjach, mikrokod do procesora / AGESA, uaktualnienia Intel ME, kontrolera Thunderbolt, TPM i wielu innych elementów (z odpowiednimi narzędziami teoretycznie możliwe jest np. dodanie czy usunięcie wsparcia dla konkretnych CPU).

Moje pytania – jak długo producent powinien zapewniać uaktualnienia? 5 lat? 10 lat? Tak długo, jak Intel czy AMD będą publikować nowe microcode? Czy nie jest tak, że jakkolwiek długo będą one udostępniane, to i tak będzie to zbyt krótki okres czasu? Może w tej sytuacji po prostu powinniśmy dostać oprogramowanie, dzięki któremu oddzielnie moglibyśmy ładować kolejne komponenty?

Bardzo ciekawą kwestią jest to, że w wielu wypadkach „inność” elementów na płytach głównych wynika wyłącznie z innych identyfikatorów. Czy nie powinno to być napiętnowane? (tu widać przewagę rozwiązań otwarto-źródłowych, które dzięki podobieństwom potrafią zapewnić wsparcie nawet dla wiekowego sprzętu).

Czy tak czy inaczej, w większości wypadków poza wadliwymi projektami sprzętu wsparcie najczęściej bywa co najmniej poprawne, a producenci płyt czasem dają znacznie więcej niż chciałby Intel albo AMD. A jeśli mówimy o wadliwych projektach, to wspomnę wentylatory przy X570 - jeżeli trzeba go chłodzić aktywnie, należałoby zastosować chłodzenie jak w laptopach, tzn. z wydmuchiwaniem powietrza z tyłu.

Pamięci flash i dyski

Spójrzmy teraz na przykład z innej półki, czyli dyski. W wielu wypadkach widać tu produkcję od podstaw (np. Samsung ma swoje kontrolery, kostki pamięci, itp.), ale też przerzucanie odpowiedzialność na inne firmy – mówię o sytuacji, gdy jesteśmy zmuszani do kupna laptopa z dyskiem, i ten ostatni jest w wersji OEM, co oznacza mniej więcej tyle, że nie znamy parametru TBW ani nie mamy paczek firmware do urządzenia. W tej sytuacji należy albo kupić najmniejszy dysk, albo kupić dysk, i po zakończeniu gwarancji wymienić go na kolejny egzemplarz.

Czy nie jest to generowane elektrośmieci? Do tego jak to się dzieje, że im mniejszy dysk półprzewodnikowy, tym bardziej użytkownicy są zachęcani do jego szybszej wymiany?

Nie myślę o najbardziej oczywistej sprawie, czyli mniejszej przestrzeni i przez to mniejszej ilości bajtów do zapisania, tylko o następujących faktach:

  1. na partycjach NTFS o wielkości poniżej 128 GB domyślnie włączone jest zapisywanie informacji, kiedy ostatnio dany plik był odczytywany – zmniejsza to prędkość i zwiększa zużycie (w Windows można to zmienić komendą fsutil behavior set DisableLastAccess).
  2. swap file jest zazwyczaj większy w urządzeniach, które mają mniej RAM (a jak mają mniej RAM, to są zazwyczaj tanie i mają mniejsze dyski). Proszę zauważyć, że chińskie firmy zaczynają proponować to rozwiązanie nawet w telefonach (te zawierają często kości gorszej jakości) – generacja elektrośmieci jak się patrzy.
  3. w niektórych urządzeniach tańsza wersja ma znacznie wyższe temperatury pracy, a to oznacza również pracę SSD w gorszych warunkach – sztandarowy przykład to iMac z tego roku.
  4. mniejszy dysk w danej serii ma mniejszą prędkość. Nie jest to reguła i można to tłumaczyć tym, że znajduje się tam mniej fizycznych kostek (a więc nie można operować równolegle na danych), z drugiej jednak strony czy w takim iPhone 7 wersja 32GB powinna być 8x wolniejsza?
  5. najtańsze pamięci w laptopach obecnie to eMMC, a te są lutowane (jakby nie można było na płytach głównych umieszczać czytników kart)

Ciekawą kwestią jest to, że część użytkowników nigdy nie odda napędów do naprawy (z uwagi na dane) i że w przypadku kart pamięci zdarza się gwarancja wieczysta (dlaczego więc tego nie ma przy dyskach? Obawa, że rzeczywiście będą szybko zużywane do końca?)

Lubię to! Skomentuj Napisz notkę Zgłoś nadużycie

Więcej na ten temat

Komentarze

Inne tematy w dziale Technologie