Inteligență artificială: Software de detectare a emoțiilor testat pe uiguri

Un sistem de camere care folosește inteligența artificială (AI) și recunoașterea facială, menit să dezvăluie stări de emoție, a fost testat pe uigurii din Xinjiang, a spus BBC.

Un inginer de software a susținut că a instalat astfel de sisteme în secțiile de poliție din provincie.

Un avocat al drepturilor omului, căruia i s-au arătat dovezile, a descris-o ca fiind șocantă.

Ambasada Chinei la Londra nu a răspuns direct la revendicări, însă afirmă că drepturile politice și sociale din toate grupurile etnice sunt garantate.

Xinjiang găzduiește 12 milioane de uiguri minoritari etnici, dintre care majoritatea sunt musulmani.

Cetățenii din provincie sunt supravegheați zilnic. Zona găzduiește, de asemenea, „centre de reeducare” foarte controversate, numite lagăre de detenție de înaltă securitate de către grupurile pentru drepturile omului, unde se estimează că au fost reținute peste un milion de persoane.

Beijingul a susținut întotdeauna că supravegherea este necesară în regiune, deoarece spune că separatiștii care doresc să-și înființeze propriul stat au ucis sute de oameni în atacuri teroriste.
Inginerul de software a fost de acord să discute cu programul BBC Panorama sub condiția anonimatului, pentru că se teme pentru siguranța sa. Nici compania la care a lucrat nu este dezvăluită.

Dar el i-a arătat Panoramei cinci fotografii ale deținuților uiguri despre care a afirmat că au testat sistemul de recunoaștere a emoțiilor.
„Guvernul chinez folosește uigurii ca subiecți de testare pentru diferite experimente la fel cum șobolanii sunt folosiți în laboratoare”, a spus el.

Și-a subliniat rolul său în instalarea camerelor în secțiile de poliție din provincie: „Am plasat camera de detectare a emoțiilor la 3m de subiect. Este similar cu un detector de minciuni, dar tehnologie mult mai avansată.”

El a spus că ofițerii folosesc „scaune de reținere” care sunt instalate pe scară largă în secțiile de poliție din toată China.

„Încheieturile tale sunt blocate la locul lor prin intermediul unor sisteme de reținere din metal și același lucru se aplică și gleznelor”.

El a furnizat dovezi despre modul în care sistemul IA este instruit pentru a detecta și analiza chiar modificări minuscule ale expresiilor faciale și ale porilor pielii.

Potrivit afirmațiilor sale, software-ul creează o diagramă circulară, segmentul roșu reprezentând o stare de spirit negativă sau anxioasă.

El a susținut că software-ul este destinat „judecății prealabile fără nicio dovadă credibilă”.

Ambasada Chinei la Londra nu a răspuns la întrebările referitoare la utilizarea software-ului de recunoaștere emoțională în provincie, dar a spus: „Drepturile politice, economice și sociale și libertatea credinței religioase în toate grupurile etnice din Xinjiang sunt pe deplin garantate.

„Oamenii trăiesc în armonie, indiferent de mediul lor etnic și se bucură de o viață stabilă și pașnică, fără restricții la libertatea personală”.

Dovezile i-au fost arătate lui Sophie Richardson, directorul chinez al Human Rights Watch.

„Este un material șocant. Nu doar că oamenii sunt reduși la o diagramă circulară, ci oamenii care se află în circumstanțe extrem de coercitive, sub o presiune enormă, sunt înțelegători nervoși și sunt considerați ca un indiciu de vinovăție și cred că este profund problematic.”
Se estimează că China găzduiește jumătate din aproape 800 de milioane de camere de supraveghere, din lume.

De asemenea, are un număr mare de orașe inteligente, cum ar fi Chongqing, unde AI este încorporat în bazele mediului urban.

Jurnalistul de investigație din Chongqing, Hu Liu, a declarat pentru Panorama despre propria sa experiență: „Odată ce pleci de acasă și pășești în lift, ești capturat de o cameră. Există camere peste tot”.

„Când plec de acasă pentru a merge undeva, sun la un taxi, compania de taxiuri încarcă datele către guvern. Pot să merg apoi la o cafenea pentru a întâlni câțiva prieteni și autoritățile știu locația mea prin camera din cafenea.

„Au fost ocazii în care am întâlnit niște prieteni și la scurt timp după aceea cineva din guvern mă contactează. M-au avertizat:„ Nu vezi acea persoană, nu face asta și asta ”.

„Cu inteligența artificială nu avem unde să ne ascundem”, a spus el.

Sursa: BBC
Citește și
Loading...
Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.