Tocmai oamenii care au pus bazele inteligenței artificiale moderne trag acum cel mai puternic semnal de alarmă. Yoshua Bengio și Geoff Hinton, considerați pe scară largă „părinții” AI, s-au alăturat unui cor de peste 850 de personalități mondiale care cer oprirea imediată a cursei către „superinteligență”. Miza, spun ei, nu este profitul sau inovația, ci supraviețuirea speciei umane. Scindarea din lumea tehnologiei este mai profundă ca niciodată și definește trei curente care se luptă pentru a modela viitorul nostru colectiv.
Viziunea 1: Apocalipsa tehnologică. „Opriți totul, acum!”
O declarație publicată miercuri a zguduit din temelii industria tech. Figuri emblematice precum co-fondatorul Apple, Steve Wozniak, și miliardarul Richard Branson și-au pus semnătura pe un document care cere interzicerea dezvoltării superinteligenței. Lista este însă condusă de greii domeniului: Yoshua Bengio și Geoff Hinton. Practic, arhitecții sistemului spun că propria lor creație riscă să scape de sub control.
Argumentul lor este direct și lipsit de echivoc. O inteligență artificială care ar depăși oamenii în toate sarcinile cognitive prezintă riscuri existențiale. Acestea variază de la „înlocuirea economică a oamenilor și pierderea puterii de decizie”, până la amenințări la adresa securității naționale și, în scenariul cel mai sumbru, „posibila dispariție a omenirii”. Semnatarii cer o pauză pe termen nedefinit, până când va exista un consens științific că tehnologia poate fi controlată și un sprijin public solid pentru continuarea dezvoltării.
„Pentru a avansa în siguranță către superinteligență, trebuie să determinăm științific cum să proiectăm sisteme AI care să fie fundamental incapabile să provoace daune oamenilor”, a afirmat Yoshua Bengio. El a adăugat că publicul trebuie să aibă „un cuvânt mult mai puternic de spus”.
Grupul de semnatari este surprinzător de divers, depășind bula tech. Pe listă apar academicieni, lideri religioși, foști politicieni, dar și figuri media precum Steve Bannon și Glenn Beck, aliați ai președintelui american Donald Trump. Chiar și Prințul Harry și soția sa, Meghan, Ducesa de Sussex, au semnat apelul, semnalând că îngrijorarea a depășit cercurile de specialiști și a devenit o problemă globală.
Viziunea 2: Cursa spre progres. „Cine nu aleargă, pierde”
În tabăra opusă se află giganții care pompează miliarde de dolari în dezvoltarea modelelor lingvistice din ce în ce mai avansate. Companii precum OpenAI, condusă de Sam Altman, și xAI, proiectul lui Elon Musk, sunt prinse într-o competiție acerbă pentru a atinge următorul nivel de inteligență artificială. Meta nu se lasă mai prejos, numindu-și explicit divizia de cercetare „Meta Superintelligence Labs”.
Pentru acești jucători, viteza este esențială. Logica lor, deși rareori afirmată public, este una a competiției strategice. Ei văd beneficii uriașe în dezvoltarea unei AI avansate, capabilă să rezolve probleme globale complexe, de la boli la schimbări climatice, un potențial recunoscut chiar și de critici precum Bengio. Într-o cursă globală, a te opri înseamnă a ceda teren unor competitori care poate nu au aceleași standarde etice. Tăcerea lor asurzitoare în fața apelului la moratoriu vorbește de la sine: pentru ei, cursa continuă, iar beneficiile, cel puțin pe hârtie, depășesc riscurile imediate.
Viziunea 3: Paradoxul constructorului. „O facem, dar ne e frică de ea”
Cea mai ciudată și poate cea mai periculoasă viziune este cea a liderilor care construiesc activ superinteligența, în timp ce avertizează public asupra pericolelor ei. Sam Altman și Elon Musk sunt exponenții perfecți ai acestui paradox. Acțiunile lor sunt în contradicție directă cu propriile lor declarații din trecut.
Înainte de a deveni figura centrală a revoluției AI, Sam Altman scria într-o postare pe blog din 2015 că dezvoltarea unei inteligențe supraomenești este „probabil cea mai mare amenințare la adresa existenței continue a umanității”. Astăzi, compania sa, OpenAI, este vârful de lance al acestei dezvoltări.
La rândul său, Elon Musk, care acum concurează direct cu OpenAI prin xAI, declara la începutul acestui an, într-un podcast, că există „doar o șansă de 20% de anihilare” cauzată de AI avansat. O probabilitate care pentru oricine altcineva ar fi inacceptabil de mare, dar care pentru el pare un risc asumat în goana după supremație tehnologică. Această dualitate ridică o întrebare fundamentală: sunt acești lideri niște ipocriți sau pur și simplu cred că doar ei pot controla monstrul pe care îl creează?
Ce spun oamenii? Un decalaj uriaș între elite și public
În timp ce experții și miliardarii se ceartă, opinia publică pare să fi dat deja un verdict. Un sondaj recent realizat de Future of Life Institute, citat în declarația care cere oprirea dezvoltării, este edificator. Doar 5% dintre americani susțin „status quo-ul dezvoltării rapide și nereglementate” a superinteligenței.
Majoritatea covârșitoare a cetățenilor crede că o „AI supraumană” nu ar trebui creată până când nu există dovezi clare că poate fi controlată și sigură. Mai mult, publicul cere reglementări stricte, o dovadă a prăpastiei dintre direcția în care se îndreaptă marile corporații și dorința de siguranță a populației. Dezbaterea, Deci, nu mai este una tehnică, ci una profund democratică. Întrebarea care se pune acum, în februarie 2026, este dacă guvernele vor asculta vocea cetățenilor sau vor lăsa o mână de companii să decidă unilateral soarta umanității.
Surse:

