Według wewnętrznego dokumentu opublikowanego przez agencję Reuters, chatbot Meta oparty na sztucznej inteligencji mógł prowadzić „romantyczne lub zmysłowe” rozmowy z dziećmi, generować fałszywe medyczne informacje oraz pogłębiać rasizm.
Dokument określający zasady działania chatbota Meta zintegrowanego z WhatsApp i innymi platformami społecznościowymi firmy precyzował, które odpowiedzi na niektóre intymne lub kontrowersyjne pytania były dozwolone, a które zabronione.
Pojawiały się pytania o treści niewłaściwe wobec dzieci. W odpowiedzi chatbot miał ograniczenia – nie mógł opisywać wyraźnych aktów seksualnych, choć w niektórych sytuacjach mógł używać neutralnych sformułowań dotyczących ciała lub wyglądu.
Na przykład, chatbot mógł mówić o atrakcyjności sylwetki w neutralny sposób, ale nie dopuszczał treści sugerujących pożądanie seksualne.
Dokument wskazywał także na inne ryzykowne obszary działania chatbota. Zasady pozwalały mu generować informacje nieprecyzyjne lub fałszywe, w tym w kontekście medycznym, a także tworzyć treści mogące być interpretowane jako dyskryminujące.
W jednym z hipotetycznych scenariuszy użytkownik mógł próbować uzyskać od chatbota odpowiedzi rasistowskie. Zgodnie z dokumentem, system był w stanie wygenerować kontrowersyjne treści, co ujawniało potencjalne ryzyko niewłaściwego użycia modelu i wskazywało na potrzebę bardziej restrykcyjnych zabezpieczeń.
Co zrobi Meta?
Meta potwierdziła autentyczność dokumentu agencji Reuters.
Rzecznik Meta, Andy Stone, powiedział, iż firma jest w trakcie aktualizacji dokumentu i iż takie rozmowy z dziećmi nigdy nie powinny były być dozwolone.
„Mamy jasne zasady dotyczące tego, jakiego rodzaju odpowiedzi mogą udzielać postacie AI, a zasady te zabraniają treści seksualizujących dzieci oraz seksualnych gier fabularnych między dorosłymi a nieletnimi” – dodał Stone.
Chociaż chatboty nie mogą prowadzić takich rozmów z nieletnimi, Stone przyznał, iż egzekwowanie tych zasad przez firmę było niespójne.
Unijna strategia w dziecięcym świecie AI
Unia Europejska wprowadziła szereg regulacji oraz dyrektyw mających na celu ochronę dzieci w sieci. Zalicza się do nich ustawę o usługach cyfrowych (DSA), Ogólne Rozporządzenie o Ochronie Danych Osobowych (RODO) oraz Dyrektywę o Audiowizualnych Usługach Medialnych (AVMSD).
W maju 2022 r. Komisja przedstawiła nową strategię- Lepszy Internet dla Dzieci (BIK+), która ma zapewniać ochronę, szacunek i wzmocnienie pozycji dzieci w internecie zgodnie z Europejskimi prawami i zasadami cyfrowymi.
Ochrona dzieci w sieci pozostaje jednak problematyczna, ponieważ – podobnie jak w przypadku DSA – wiele kwestii pozostaje w gestii państw członkowskich. To od stopnia zaangażowania poszczególnych państw zależy, jak gwałtownie przepisy zostaną wdrożone.
Również w maju Komisja Europejska skierowała sprawę do Trybunału Sprawiedliwości Unii Europejskiej przeciwko Polsce, która nie wyznaczyła koordynatora ds. usług cyfrowych ani nie nadała mu uprawnień do wykonywania zadań wynikających z DSA.
Warto dodać, iż Komisja wszczęła również szereg postępowań przeciwko firmie Meta. W maju 2024 r. sprawdzano m.in., czy dostawca Facebooka i Instagrama, poprzez swoje algorytmy, nie przyczyniał się do powstawania uzależnień behawioralnych u dzieci, co mogłoby naruszać przepisy zawarte w DSA.