Przekonał się o tym pewien kanadyjski filmowiec i dokumentalista. W 2006 r. umieścił on swoje zdjęcie z miesiąca miodowego w popularnej aplikacji Flickr. Po piętnastu latach skorzystał on z wczesnej wersji oprogramowania Exposing.AI, dzięki czemu odkrył on, że setki jego zdjęć umieszczonych w aplikacji Flickr, znalazły się w zestawach danych, które mogły zostać wykorzystane do szkolenia systemów rozpoznawania twarzy na całym świecie.

Flickr, przez lata zmieniał właścicieli. Obecnie jest własnością firmy SmugMug. Umożliwia ona użytkownikom udostępnianie ich zdjęć na licencji Creative Commons. Licencja ta, oznacza, że inni użytkownicy mogą używać zdjęć z niewielkimi ograniczeniami, które i tak są często ignorowane. W 2014 r. Yahoo, ówczesny właściciel Flickr, wykorzystał wiele z tych zdjęć w zestawie danych, który miał pomóc w pracy nad rozpoznawaniem obrazów. Następnie Brett Gaylor dowiedział się, że jego zdjęcia mogły przysłużyć się systemowi monitoringu w Stanach Zjednoczonych oraz że jeden z tych systemów był używany do śledzenia Ujgurów w Chinach. Przedstawiona historia opowiada nam o niezamierzonych konsekwencjach umieszczania własnych fotografii w popularnej i modnej aplikacji.

Innym przykładem platformy, która wykorzystywała zdjęcia użytkowników aplikacji Flickr był MegaFace. Było to zbiór danych stworzony przez profesorów z University of Washington w 2015 r. Zbudowali go bez wiedzy i zgody ludzi, których obrazy złożyli w ogromną pulę zdjęć. Profesorowie umieścili tenże zbiór w Internecie, aby inni mogli go pobrać. MegaFace został pobrany ponad 6000 razy przez firmy i agencje rządowe na całym świecie. Obejmowały one m.in. amerykańskiego przedsiębiorcę w dziedzinie obronności Northrop Grumman, ByteDance, czy chińską firmą monitorująca – Megvii. Ostatni z wymienionych podmiotów znalazł się na w zeszłym roku na czarnej liście Departamentu Handlu USA po tym, jak chiński rząd wykorzystał swoją technologię do monitorowania Ujgurów w tym kraju.

Aplikacja Exposing. AI pozwala użytkownikowi na sprawdzenie czy umieszczone przez niego zdjęcia w aplikacji Flickr zostały wykorzystane do badań nad systemami rozpoznawania twarzy. Exposing.AI działa od stycznia tego roku i liczy około 3,6 mln zdjęć. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich o tym fakcie nie informuje i dopiero takie narzędzie jak Exposing.AI przedstawia im namacalny dowód na wykorzystanie ich zdjęć do celów, o których nie mieli pojęcia.

Należy przypuszczać, że narzędzia takie jak Exposing.AI będą w przyszłości rozwijane i udostępniane coraz szerszym rzeszom internautów. Jest to mały, choć znaczący krok do odzyskania kontroli nad swoimi danymi osobowymi a przynajmniej do uzyskania wiedzy o celu i zakresie ich wykorzystania przez różne podmioty.

Źródło: https://cyfrowa.rp.pl/technologie, https://www.nytimes.com/