Patrząc na doświadczenia ostatnich lat, nie da się narysować jasnej linii pomiędzy prywatnością a bezpieczeństwem. Z jednej strony każdy z nas inaczej definiuje prywatność, a z drugiej - bezpieczeństwo inaczej może być rozumiane przez obywateli, a inaczej np. przez organy władzy. Często narzędzia, które w swoich założeniach miały służyć dobrym celom, są wykorzystywane do nadzoru i kontroli nie mającej z bezpieczeństwem nic wspólnego. Jednak większość osób zgodzi się chyba, że tę granicę w kwestii usług cyfrowych trzeba "gdzieś" postawić ze względu na możliwości, które daje globalna sieć. Apple stwierdziło, że w tym wypadku prywatność użytkowników jest mniej ważna niż bezpieczeństwo dzieci.
To cię zainteresuje A co gdybyśmy mogli zapłacić za swoją prywatność?Zachowaj prywatność podczas rozmów - sięgnij po najbezpieczniejszy SignalApple będzie przeszukiwało zdjęcia w iCloud w poszukiwaniu dziecięcej pornografii
Wczoraj Apple zaprezentowało nowy zestaw funkcji dla iOS 15 i iPadOS 15 które mają pomóc najmłodszym użytkownikom bezpiecznie korzystać z internetu. Wśród funkcji są m.in. nowe tryby w komunikatorach, które pozwolą ochronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Jednak dużo ważniejszą moim zdaniem funkcją jest tu moduł, który wykrywa CSAM (Children Sexual Abuse Material), czyli dziecięcą pornografię, która może być przechowywana na kontach iCloud użytkowników. W tym celu specjalny algorytm będzie badał zdjęcia na iPhone'ach przed ich wysłaniem na iCloud i porównywał je ze znajdującymi się w bazie sygnaturami dla zdjęć CSAM. Jeżeli zostanie znalezione powiązanie, algorytm nie uruchamia od razu alarmu, ale przesyła na iCloud zdjęcie wraz ze specjalnym, niewidocznym dla użytkownika zgłoszeniem, iż CSAM został wykryty. Jeżeli liczba zgłoszeń przekroczy pewną wartość krytyczną, do akcji wchodzi pracownik Apple, który weryfikuje, czy rzeczywiście mamy tu do czynienia z takimi materiałami, czy też algorytm się pomylił. Jeżeli faktycznie wykryje nieprawidłowości, przygotowane jest zgłoszenie do National Center for Missing and Exploited Children. Funkcja, póki co, będzie więc działała na terenie USA.
Chyba wszyscy zgodzimy się, że w kwestii ochrony dzieci jest to krok w dobrą stronę. A jak z prywatnością?
Świat zna wiele przypadków, w których rozwiązanie bezpieczeństwa, dla którego zbudowano bardzo potężny system informatyczny i które miało być używane "tylko w dobrym celu", przerodziło się w narzędzie zbierania danych i kontroli. Takim systemem był chociażby program PRISM i system nadzoru sieci zbudowany w Stanach Zjednoczonych po 11 września. Dlatego o ile nikt nie neguje, że walka z dziecięcą pornografią jest bardzo słuszna i w tym kontekście - brawo Apple, to nie można też pominąć obaw użytkowników o to, że w przyszłości ten sam mechanizm zostanie użyty także do skanowania innych treści, w szczególności - materiałów nieprzychylnych władzy. I nie mówię tu o władzy naszego kraju. Nie tak dawno pisałem, jak bardzo Apple zależne jest np. od chińskich władz. Naturalne są też obawy, czy w kolejnych inkarnacjach iOS taka ingerencja w prywatność użytkowników nie pójdzie dalej, np. w kwestii skanowania rozmów czy jawnego podsłuchiwania rozmów telefonicznych.
Eksperci uspokajają. Ale nie tak, jakbyśmy tego chcieli
Osoby związane z cyberbezpieczeństwem podzielają obawy użytkowników co do tego, że wspomniany system może dać Apple możliwość bardzo głębokiej ingerencji w prywatność użytkowników bez ich wiedzy, co stoi w sprzeczności z dotychczasową polityką firmy. Z drugiej jednak strony zaznaczają, że w tej kwestii Apple wcale nie wyznacza nowych granic ani dla ochrony dzieci, ani dla śledzenia użytkowników, ponieważ podobne algorytmy są wykorzystywane przez Google czy Facebooka już od ponad 10 lat.
Czytaj dalej poniżej Myślisz, że giganci IT dbają o Twoją prywatność? To spójrz co daje CyberGhost VPN DPDawid PacholczykBędziesz chciał zadbać o prywatność w swoim MacBooku? Pęknie ci ekran KRKrzysztof RojekArgument o tym, że "wszyscy tak robią" do mnie jednak nie przemawia. Wiadomo, jak Google i Facebook obchodzą się z informacjami o nas (Google ostatnio zwolniło pracowników którzy wynosili dane użytkowników poza firmę) i ciężko jest wyrokować, czy Apple nie jest pod tym względem wyjątkiem - tu możecie przeczytać jak traktowane są zapisy głosowe z inteligentnego głośnika. Dlatego pomimo tego, że inicjatywa jest jak najbardziej słuszna, to sposób jej implementacji sprawia, że tworzy się tu bardzo duże pole do nadużyć ze strony Apple i każdego, kto będzie mógł wywrzeć nacisk na politykę firmy.
Jak zwykle w takim wypadku, nam - użytkownikom, zostało jedynie trzymać kciuki, że tak się nie stanie.