Facebook to tylko wierzchołek góry lodowej

0

Manipulacja danymi to funkcja, nie błąd, i staje się plagą współczesnej kultury.

Po pięciu dniach milczenia, Mark Zuckerberg przyznał się w końcu do wycieku danych, który pozwolił Cambridge Analytica uzyskać obszerne informacje na temat 50 milionów użytkowników Facebooka. Jego oświadczenie, w którym przyznał, że Facebook popełnił błędy w reagowaniu na sytuację, nie zawierało przeprosin – Zuckerberg i Facebook wielokrotnie udowadniali, że mają trudność z przepraszaniem.

Oświadczenie Zuckeberg’a zawiera błędne podstawowe założenie – postrzega on naruszenia Cambridge Analytica jako problem złej woli, podczas gdy jest to dobrze znany błąd systemu Facebook’a.

W trakcie trwającej ponad 17 miesięcy dyskusji w amerykańskim społeczeństwie na temat wpływu mediów społecznościowych na demokrację, pojawiły się dwa wyraźne wątki. Problem złej woli danych aktorów – gdy ktoś łamie zasady i manipuluje systemem mediów społecznościowych dla własnych nikczemnych celów. Przykładem są macedońscy nastolatkowie, którzy tworzą sensacyjną i fałszywą treść, by czerpać zyski ze sprzedaży reklam online. Eksperci od dezinformacji planują kolejne wiece i kontrwiece, wzywając Amerykanów do wyjścia na ulice, aby krzyczeli na siebie nawzajem. Botnety rozpowszechniają posty i hashtagi, potęgując w Internecie impet kampanii, takich jak #releasethememo. Tworzy to „charyzmatyczną megafaunę” mediów społecznościowych. Ich obserwacja jest fascynująca, a próba zbadania tego zjawiska jest dobrą zabawą – kto nie byłby zaintrygowany grupą Rosjan pracującą w Petersburgu, którzy udawali aktywistów Black Lives Matter i antyklintonowskich fanatyków, siejących chaos podczas wyborów prezydenckich w USA? Ta „charyzmatyczna megafauna” może być tym, co skupia całą uwagę, gdy tak naprawdę istnieją mniejsze organizmy, czasem niewidoczne gołym okiem, które mogą dramatycznie wpływać na zdrowie całego ekosystemu.

Drugi wątek to błędy systemowe. Tzw. bugi to podstawowy problem związany z mediami społecznościowymi i nie są one wynikiem działania rosyjskich agentów, przedsiębiorczych Macedończyków, ani nawet Steve’a Bannon’a, ale zdają się być po prostu nieodłącznym elementem budowania internetowej sieci społecznościowej. Ludzie w Internecie są wredni, skłonni do obrażania i nękania innych użytkowników. Pojawiają się tendencje do przesiadywania w „kokonach ideologicznych” bez próby ich kwestionowania, niezależnie od tego, czy są to „bańki informacyjne” tworzone przez algorytmy, czy to echo zachowań i komunikatów wytwarzanych przez określone grupy osób. Teorie spiskowe mają w Internecie spore powodzenia, a proste wyszukiwanie informacji może szybko prowadzić do ekstremalnych i niepokojących treści.

Naruszenia dokonane przez Cambridge Analytica przy wykorzystaniu znanego buga mają dwa podłoża. Aleksandr Kogan, naukowiec z Cambridge University, który stworzył kwestionariusz do zbierania danych o dziesiątkach milionów ludzi, nie włamał się do serwerów Facebooka i nie wykradł danych. Użył interfejsu Facebook Graph API, który do kwietnia 2015 r. pozwalał użytkownikom tworzyć aplikacje, które zbierały dane zarówno od osób, które zdecydowały się korzystać z aplikacji, jak i od ich znajomych z Facebooka. Jak zauważył badacz mediów Jonathan Albright, możliwość uzyskiwania niezwykle obszernych informacji o znajomych użytkowników aplikacji jest spowodowana konstrukcją i funkcjonalnością interfejsu Graph API. Co ważne, większość problemów, które powstały w wyniku tej integracji, miała być „cechą, a nie błędami” aplikacji.

W swoich „nie-przeprosinach” Zuckerberg twierdził, że Facebook podjął już najważniejsze „kroki kilka lat temu, w 2014 roku, aby uniemożliwić złośliwym jednostkom dostęp do informacji o użytkownikach”. Jednak zmiana API, który Kogan wykorzystał do pozyskania danych, to tylko niewielka część znacznie większego problemu.

Dla jasności podkreślę: uważam, że Kogan działał nieetycznie, rzekomo pozyskując te dane, i że przekazanie tych danych Cambridge Analytica było niewybaczalnym naruszeniem etyki badawczej. Ale Kogan był w stanie to zrobić, ponieważ Facebook umożliwił takie posunięcie, nie tylko dla niego, ale dla każdego, kto tworzył aplikacje za pomocą Graph API. Kiedy Kogan twierdzi, że jest kozłem ofiarnym wskazywanym zarówno przez Cambridge Analytica, jak i Facebooka, ma mocne argumenty: sprzedaż danych do Cambridge Analytica jest oczywiście niedopuszczalna, ale Facebook wiedział, że ludzie tacy jak Kogan mają dostęp do danych milionów użytkowników. To jest właśnie funkcjonalność Facebooka kierowana do twórców aplikacji.

W rozmowie z Laurie Segall w CNN Zuckerberg podkreślił, że Facebook zbada  przypadki innych twórców aplikacji, aby sprawdzić, czy ktokolwiek sprzedaje dane psychograficzne zebrane przez Graph API. Jednak nie wspomniał, że model biznesowy Facebooka opiera się na zbieraniu danych demograficznych i psychograficznych oraz ich sprzedaży reklamodawcom.

Jest to znany bug nie tylko Facebooka i innych sieci społecznościowych, ale także większej części współczesnej sieci. Podobnie jak Facebook, Google tworzy profile swoich użytkowników, korzystając z informacji pochodzących z prywatnych wyszukiwań i narzędzi, takich jak Gmail i aplikacje biurowe, aby pomóc reklamodawcom w kierowaniu przekazu. Podczas czytania tego artykułu w The Atlantic, około trzydziestu dostawców reklam przygląda się twoim zachowaniom, dodając twoje zainteresowanie danym tematem do tworzonego przez nich profilu twoich nawyków internetowych. (Jeśli chcesz dowiedzieć się więcej o tym, kto cię obserwuje, pobierz Ghostery, rozszerzenie przeglądarki, które śledzi i może blokować te „zewnętrzne” urządzenia śledzące). The Atlantic nie jest przypadkiem odosobnionym. Większość stron internetowych z reklamami śledzi użytkowników w ramach umów, które mają zwiększyć wartość ich zasobów reklamowych. Odnoszę się do umowy, w której ludzie otrzymują bezpłatny dostęp do treści i usługi, w zamian za psychograficznie skierowane komunikaty reklamowe, co jest „grzechem pierworodnym” Internetu. Jest to niebezpieczny i społecznie szkodliwy model biznesowy, który stawia użytkowników Internetu pod stałym nadzorem i nieustannie odciąga naszą uwagę od zadań, które chcemy wykonywać online, w stronę osób płacących za zdobycie naszej uwagi. To straszny model, który funkcjonuje tylko dlatego, że nie znaleźliśmy innego sposobu niezawodnego wspierania większości treści i usług internetowych – w tym także płacenia za rzeczy, które uważamy za wartościowe.

Uświadamiamy sobie, jak niewygodny jest ten model, kiedy Steve Bannon i Cambridge Analytica opracowują profile osobowości, dzięki czemu mogą dostosowywać perswazyjne komunikaty do konkretnych osobistych zachowań. Jednak pamiętajmy, że robi to każdy kompetentny reklamodawca każdego dnia, na większości stron internetowych. Jeśli to powoduje, że czujesz się nieswojo: i dobrze, tak powinno być. Ale problem jest większy niż ten związany z Facebookiem. Jest to znany bug nie tylko w sieciach społecznościowych, ale we współczesnej, wspieranej reklamami sieci internetowej jako całości.

Media społecznościowe mogą stosunkowo łatwo rozwiązywać problemy złych aktorów. W większości przypadków sieci społecznościowe byłyby lepsze bez botów sztucznie promujących posty lub sfabrykowane wiadomości rejestrujące kliknięcia. Interesy platformy są zbieżne z interesami społeczeństwa jako całości w walce ze złymi aktorami.

Inaczej jest ze znanymi bugami.

Jeśli platformy internetowe zrezygnują z ich wykorzystania, ryzykują złamanie własnych modeli biznesowych. YouTube nie jest w stanie zmienić mechanizmu rekomendacji, który prowadzi nas do filmów o teorii spiskowej, nie łamiąc systemu, który zachęca nas do przeklikania z jednego popularnego filmu na drugi, co przy okazji generuje nowe odsłony reklam. Adresowanie problemu nękania i obrażania na Twitterze jest trudne – choć nie niemożliwe – kiedy wielu najbardziej zaangażowanych użytkowników Twittera to grupy opiniotwórcze, a ich argumenty są jednymi z najbardziej atrakcyjnych treści w serwisie. Facebook nie może ochronić nas przed manipulacyjną reklamą skierowaną na nasz profil psychograficzny, gdy ich model biznesowy opiera się na sprzedaży tej konkretnej formy perswazji.

Platformy nie naprawią znanych bugów same z siebie bez zewnętrznej presji. W wywiadzie dla Segall, Zuckerberg przyznał, że nadszedł czas na regulację Facebooka, sugerując standardy, które wymuszą przejrzystość działań reklamodawców. Powinniśmy naciskać na Facebooka i sieć jako całość, by zrobiono znacznie więcej w celu rozwiązania problemu znanych bugów.

Użytkownicy Internetu zostali zmuszeni do zawarcia umowy bez możliwości negocjacji: otrzymujesz usługi, których potrzebujesz, a platformy otrzymują potrzebne im dane. Potrzebujemy prawa do rezygnacji z tej okazji, płacąc za usługi takie jak Facebook lub YouTube w zamian za możliwe do zweryfikowania zapewnienia, że nasze zachowanie nie jest śledzone, a nasze dane behawioralne nie są sprzedawane. Potrzebujemy ekosystemu, który zachęca konkurentów istniejących platform społecznościowych. Oznacza to zapewnienie prawa do eksportu danych z istniejących sieci społecznościowych do nowych aplikacji, co pozwoliłoby nam eksperymentować z nowymi usługami, utrzymując kontakty z już istniejącymi. Informacje umożliwiające identyfikację osób powinniśmy traktować nie jako zasoby, które można wykorzystać, a bardziej jako odpady toksyczne, którymi należy ostrożnie zarządzać, jak zaproponował Maciej Cegłowski. Może to wymagać stworzenia cyfrowej EPA (Agencji Ochrony Środowiska), jak twierdzili Franklin Foer, Paul Ford i inni.

Potrzebujemy krytycznych naukowców, filantropów i polityków, którzy skierowaliby uwagę na problemy złych aktorów w Internecie i podnieśliby świadomość szkodliwości znanych bugów. Odwoływanie się do efektu echa, polaryzacji i perswazji psychograficznej może nie być tak atrakcyjne, jak zdemaskowanie rosyjskich botnetów, ale botnety są jedynie symptomem znacznie większego problemu.

„Plemienność”, manipulacja i dezinformacja są dobrze ugruntowanymi siłami w polityce amerykańskiej działającymi jeszcze przed Internetem. Nastąpiły jednak fundamentalne zmiany. Nigdy wcześniej nie dysponowaliśmy infrastrukturą technologiczną wspierającą wykorzystanie emocji jako broń na skalę globalną. Ludzie, którzy zbudowali tą infrastrukturę, mają moralny obowiązek odpowiadania za swój produkt. Zuckerberg musi o tym wiedzieć. „Naszym obowiązkiem jest chronić twoje dane” – powiedział w swoim oświadczeniu – „a jeśli nie jesteśmy w stanie tego zrobić, to nie zasługujemy na to, by ci służyć”. Nie zasługuje on na nasze wsparcie, jeśli on i jego koledzy nie podejmą się rozwiązania problemu znanych bugów, które szkodzą demokracji.

Ethan Zuckerman

Artykuł pojawił się 23.03.2018 na portalu theatlantic.com

Jeśli spodobał ci się ten artykuł, podziel się nim ze znajomymi! Przyłącz się do Nowej Debaty na Facebooku TwitterzeWesprzyj rozwój Nowej Debaty darowizną w dowolnej kwocie. Dziękujemy!