Rețeaua de socializare Facebook a început să folosească inteligența artificială pentru a-i identifica pe utilizatorii cu tendințe suicidare, informează BBC News.

Rețeaua a dezvoltat algoritmi care identifică semnale de avertizare, atât în postările utilizatorilor cât și în comentariile prietenilor care le răspund. După o confirmare din partea unei echipe de evaluare a Facebook, compania ia legătura cu cei pe care îi consideră în grupul de risc și le sugerează modalități prin care aceștia pot căuta ajutor.

Potrivit BBC, acești algoritmi sunt „antrenați” cu exemple de mesaje care în trecut au fost raportate ca indicând o astfel de problemă, cum ar fi postări despre tristețe și durere sau răspunsuri de la prieteni, cum ar fi „ești OK?” sau „sunt îngrijorat în ceea ce te privește”.

Instrumentul este în prezent în curs de testare în Statele Unite și marchează prima utilizare a tehnologiei AI pentru evaluarea mesajelor din rețea, de la anunțul făcut luna trecută de fondatorul Facebook, Mark Zuckerberg, în care acesta își exprima speranța și față de folosirea algoritmilor pentru identificarea postărilor teroriștilor.

Facebook a anunțat, de asemenea, noi modalități de abordare a comportamentului suicidar pe instrumentul său Facebook Live și a încheiat parteneriate cu mai multe organizații americane specializate în tratamentul persoanelor cu probleme mintale, pentru a permite utilizatorilor vulnerabili să le contacteze prin intermediul serviciului său de mesagerie instant, Messenger.

Facebook oferea consiliere utilizatorilor cu risc de suicid de ani de zile, însă până în prezent s-a bazat pe alți utilizatori pentru a aduce această problemă în atenția sa, dând clic pe butonul de „report” al unei postări.

Acest ultim efort pentru a-i ajuta utilizatorii rețelei vine în urma decesului unei fete de 14 ani din Miami, care și-a transmis live sinuciderea pe platforma de socializare în luna ianuarie.

AGERPRES


Raspunderea juridica a comentariilor revine in totalitate autorilor. Inainte de a comenta, cititi Standardele comunitatii! Nu vom accepta comentariile rasiste, xenofobe, care indeamna la ura sau care incita la violenta. In cazul in care considerati ca un comentariu deja aprobat ar trebui eliminat, va rugam sa ne instiintati folosind acest formular.

LĂSAȚI UN MESAJ