Skupina výzkumníků AlgorithmWatch, která zkoumala fungování neprůhledných algoritmů Instagramu, uvedla, že byla nedávno nucena přerušit svou práci kvůli obavám, že proti ní Facebook hodlá podniknout právní kroky. Organizace tvrdí, že ji americká společnost obvinila z porušování podmínek služby Instagram a uvedla, že pokud s tím nepřestané, přikročí k „formálnějšímu řešení“.
Výzkum AlgorithmWatch využíval speciální doplněk do prohlížeče, který si stáhlo více než 1 500 osob. Nástroj pomohl týmu shromáždit informace, které mu podle jeho slov umožnily učinit některé závěry o tom, jak Instagram upřednostňuje konkrétní fotografie a videa před jinými.
Chcete uspět na Instagramu? Svlékněte se
Tým mj. zjistil, že algoritmus platformy podporuje lidi v tom, aby co nejvíce ukazovali své tělo. Před zveřejněním svých zjištění AlgorithmWatch uvedl, že oslovil Facebook s žádostí o komentář, jenže americká společnost zpočátku nereagovala. V květnu 2020 však Facebook výzkumníkům sdělil, že jejich práce je „v řadě ohledů chybná“, a že našel řadu problémů s metodikou, kterou AlgorithmWatch při svém výzkumu použil.
Když Facebook obvinil AlgorithmWatch z porušení podmínek své služby, poukazoval především na část pravidel, která zakazuje automatizovaný sběr dat. Uvedl také, že sběrem dat porušuje GDPR, zákon Evropské unie o ochraně osobních údajů. „Shromažďovali jsme pouze údaje týkající se obsahu, který Facebook zobrazoval dobrovolníkům, kteří si doplněk nainstalovali,“ uvedla organizace AlgorithmWatch. „Jinými slovy, uživatelé doplňku měli přístup pouze ke svému vlastnímu kanálu a sdíleli jej s námi pro účely výzkumu.“ Co se týče tvrzení společnosti Facebook ohledně GDPR, organizace reagovala, že osobní údaje byly mazány okamžitě po příchodu na server.
Facebook si vypracoval studii. Ochrana dat je drahá, tvrdí. Uniklé e-maily a telefonní čísla z Facebooku: Co radí odborníci z antivirových firem?
Facebook má na drahé právníky, výzkumníci ne
Navzdory přesvědčení, že se nedopustili ničeho špatného, se výzkumníci nakonec rozhodli projekt ukončit. „Organizace velikosti AlgorithmWatch nemůže riskovat, že půjde k soudu proti společnosti, jejíž hodnota dosahuje bilionu dolarů,“ uvedli výzkumníci ve svém vyjádření. Obavy jsou v tomto směru pochopitelné.
Když se událostí začal zabývat server Engadget, Facebook popřel, že by výzkumníky zastrašoval. Ve svém obsáhlém vyjádření zmínil především obavy z možného porušení soukromí uživatelů:
„Věříme v nezávislý výzkum naší platformy a usilovně pracujeme na tom, abychom jej umožnili mnoha skupinám, včetně AlgorithmWatch – ale ne na úkor něčího soukromí. Měli jsme obavy z jejich praktik, a proto jsme je několikrát kontaktovali, aby se přizpůsobili našim podmínkám a mohli pokračovat ve svém výzkumu, jak to běžně děláme s jinými výzkumnými skupinami, když identifikujeme podobné problémy. Nevyhrožovali jsme jim žalobou. Signatáři tohoto dopisu věří v transparentnost – a my také. Spolupracujeme se stovkami výzkumných skupin, abychom umožnili studium důležitých témat, mimo jiné tím, že poskytujeme soubory dat a přístup k rozhraním API, a nedávno jsme zveřejnili informace vysvětlující, jak naše systémy fungují a proč na naší platformě vidíte to, co vidíte. Hodláme i nadále spolupracovat s nezávislými výzkumnými pracovníky, ale způsobem, který neohrožuje data ani soukromí lidí,“ zmínil Facebook ve svém vyjádení.
Nejen algoritmy Facebooku jsou černou skříňkou
Dění kolem AlgorithmWatch je nápadně podobné krokům, které Facebook podnikl začátkem měsíce proti projektu nazvanému NYU Ad Observatory, který zkoumal, jak zadavatelé politické reklamy cílí své reklamy. Facebook má některé nástroje, které pomáhají výzkumníkům v jejich práci, ale z větší části jsou jeho platformy od zveřejnění skandálu Cambridge Analytica černou skříňkou. To je, jak upozorňuje nejen AlgorithmWatch, zásadní problém.
„Velké platformy hrají ve společnosti důležitou, ale z velké části netransparentní roli, od vytváření identity až po ovlivňování volebních preferencí,“ uvedla. „Pouze pokud pochopíme, jak je naše veřejná sféra ovlivňována rozhodnutími jejich algoritmů, můžeme přijmout opatření směřující k tomu, aby nepodkopávali autonomii, svobodu a kolektivní dobro.“