Apple będzie sprawdzać, czy w iPhone'ach nie ma nielegalnych treści
Według nieoficjalnych informacji, Apple zdecydował się na bardzo kontrowersyjny ruch, jakim jest analiza zdjęć użytkowników, ale po stronie klienta. Stosując zgraną wymówkę (ochrona dzieci przed wykorzystywaniem), Apple łamie granicę uznawaną milcząco za nieprzekraczalną i będzie operować na lokalnych danych. Dotychczas skanowanie plików użytkowników odbywało się na zbiorach przechowywanych w chmurze.
06.08.2021 06:15
Slogan "co dzieje się na iPhone'ie, zostanie na iPhone'ie" niniejszym przestaje być aktualny. Dlaczego firma, która dotychczas (i w sumie dalej) chwali się ochroną prywatności, decyduje się na tak radykalny krok? Otóż firmy lubią szyfrowanie, bo mogą dzięki niemu sprzedać prywatność jako produkt - ale szyfrowania bardzo nie lubi rząd USA. Uosobieniem tej niechęci jest prokurator William Barr, uznający istnienie szyfrowania end-to-end za zagrożenie terrorystyczne.
Ponieważ Apple nie komentuje sprawy, a rządy ograniczają się jedynie do "postulatów", nie da się tu przytoczyć konkluzji, a jedynie spekulacje. Najbardziej przekonującą hipotezą jest to, że firmy są stawiane przed wyborem: albo usunąć szyfrowanie albo zezwolić na analizę treści przed zaszyfrowaniem. A nawet duzi gracze nie są w stanie opierać się presji trzyliterowych agencji w nieskończoność.
Sumy kontrolne
Lokalny skan nie będzie polegać na analizie zdjęć, a jedynie na porównywaniu sumy kontrolnej uogólnionej postaci zdjęcia ze sztywną bazą nielegalnych treści, utrzymywaną przez federalne biuro śledcze. Federalne - bo rozwiązanie ma działać tylko w USA. W dodatku, ma dotyczyć tylko zdjęć, które będą odkładane na chmurę iCloud. Gdy jakieś zdjęcie zostanie uznane za pasujące do bazy, jego kopia zostanie wyciągnięta z chmury (a nie pobrana z prywatnego urządzenia) celem ręcznej analizy.
Jest w tym wszystkim dużo powodów do obaw. Głównym z nich jest oczywiście niemała szansa na fałszywe detekcje, ale nie tylko. Kształt, objętość i zakres tematyczny "zakazanej bazy" nie podlega kontroli żadnej instytucji. Władze federalne zajmują się dostarczaniem treści, ale nie odpowiadają za jakość bazy.
Nie ma też żadnego mechanizmu, który mógłby powstrzymać operatorów przed dodaniem czegoś więcej niż pornografia: na przykład utworów chronionych prawem autorskim lub materiałów krytycznych wobec rządzącej opcji politycznej.
Nieustające "przeszukanie bez nakazu"
Gdy funkcja będzie działać w USA, inne państwa niewątpliwie zaczną domagać się własnych dostępów w oparciu o własne bazy. A następnie, forsować rozszerzenie skanowania po stronie klienta na inne urządzenia i systemy. Android nie musi pozostać bezpieczny na zawsze. Skan opiera się na zamkniętym zbiorze sum kontrolnych, ale jednak odbywa w kieszeni, a nie w chmurze.
Kardynalnym błędem jest tu stosowanie argumentu "przecież oni i tak to robili", bo to nieprawda. Nie można być pewnym zachowania zamkniętego oprogramowania, które się jedynie wynajmuje, ale badania nie wykazywały działania takiej funkcjonalności. Prywatny sprzęt był nietykalny. Dobiega to własnie końca.