O treime dintre șefii de întreprinderi din Marea Britanie au renunțat la planurile de utilizare a inteligenței artificiale generative în urma scandalului Willy Wonka Experience din Glasgow.
Evenimentul catastrofal pe tema ciocolatei a ținut prima pagină a ziarelor din întreaga lume după ce organizatorii au folosit instrumente de inteligență artificială pentru a crea imagini elaborate și înșelătoare pentru a încuraja vânzarea de bilete, precum și scenarii de inteligență artificială confuze pentru actorii care au apărut în cadrul spectacolului.
Constatările au fost dezvăluite într-un studiu detaliat comandat de grupul de reflecție Parliament Street privind impactul pe care AI îl are asupra încrederii consumatorilor.
Studiul, realizat de agenția independentă de sondaje Censuswide, a chestionat 500 de directori executivi din Marea Britanie cu privire la utilizarea inteligenței artificiale, inclusiv preocupările legate de securitate și planurile de implementare a acesteia în cadrul organizației lor.
Puțin peste jumătate dintre cei intervievați (51%) au declarat că intenționează să introducă un cod formal de conduită pentru utilizarea IA, pentru a se asigura că personalul utilizează tehnologia în mod responsabil. Alți 50% au planificat să trimită personalul la un curs de conștientizare a inteligenței artificiale pentru a crește gradul de conștientizare a riscurilor pe care le implică.
Un sfert dintre șefi au declarat că au sancționat un membru al personalului pentru utilizarea abuzivă a IA în acest an. Același număr a interzis în mod oficial utilizarea IA la locul de muncă.
Întrebați despre preocupările lor cu privire la această tehnologie, o treime au spus că sunt îngrijorați că ar putea fi folosită pentru a induce în eroare clienții. În același timp, o treime au spus că lipsa reglementărilor privind IA i-a făcut să fie îngrijorați de amenințările legate de confidențialitatea datelor.
Simon Ward, directorul general al specialiștilor digitali Inspired Thinking Group, a declarat: „Nu este o problemă: „Incidentul Wonka ar trebui să servească drept semnal de alarmă cu privire la riscurile utilizării nesăbuite a inteligenței artificiale, lăsând clienții cu un gust amar după aceea. De aceea, este vital ca organizațiile să ofere o formare de înaltă calitate pentru personal, precum și să pună în aplicare măsuri de protecție pentru a se asigura că tehnologia este folosită pentru a oferi o reprezentare exactă, în loc să creeze o lume de pură imaginație.”
Derek Mackenzie, CEO al furnizorului de recrutare în domeniul tehnologiei Investigo, a declarat „Inteligența artificială este o tehnologie foarte puternică, dar șefilor nu ar trebui să le fie teamă să o folosească. În multe cazuri, problemele apar din cauza faptului că organizațiile se luptă să înțeleagă cum să folosească cel mai bine tehnologia, precum și să aibă seturi de competențe pentru a o implementa corect. De aceea, este esențial să existe un cod de conduită clar, precum și să se echipeze lucrătorii cu competențele de care au nevoie pentru a utiliza instrumentele de inteligență artificială în mod responsabil.”
Sursa: bmmagazine.co.uk
