Meta rozpoczęła wdrażanie bardziej zaawansowanych systemów sztucznej inteligencji do egzekwowania zasad dotyczących treści w swoich aplikacjach, jednocześnie redukując zależność od zewnętrznych dostawców zajmujących się moderacją.
Zakres zastosowań AI w moderacji
Nowe modele AI mają obsługiwać zadania takie jak wykrywanie i usuwanie treści związanych z terroryzmem, wykorzystywaniem dzieci, narkotykami, oszustwami oraz innymi naruszeniami. Firma planuje wprowadzać je tam, gdzie konsekwentnie przewyższają dotychczasowe metody.
- Wczesne testy wykazały wykrywalność dwukrotnie większej liczby przypadków seksualnego nakłaniania dorosłych.
- Błąd detekcji spadł o ponad 60% w porównaniu z zespołami przeglądającymi treści.
- Systemy pomagają też wykrywać podszywanie się oraz przejęcia kont przez analizę sygnałów logowania.
- AI identyfikuje i łagodzi około 5 000 prób oszustw dziennie.
Rola ludzi i ograniczenia technologii
Meta podkreśla, że eksperci będą projektować, trenować, nadzorować i oceniać systemy AI. Ludzie pozostaną kluczowi przy decyzjach o najwyższym ryzyku, takich jak odwołania od dezaktywacji kont czy zgłoszenia do organów ścigania.
Redukcja zewnętrznych dostawców i kontekst polityczny
Wdrażanie AI następuje w okresie, gdy Meta ogranicza korzystanie z zewnętrznych moderatorów i zmienia podejście do moderacji, m.in. kończąc program fact‑checking oraz łagodząc zasady dotyczące niektórych treści politycznych. Firma mierzy też wdrożenia z perspektywy ryzyka prawnego i reputacyjnego.
Dodatkowo Meta uruchomiła globalnie w aplikacjach Facebook i Instagram asystenta wsparcia Meta AI, oferującego całodobowe wsparcie w aplikacjach mobilnych i w Centrum Pomocy na desktopie.