Irregular atrage 80 de milioane de dolari pentru AI

Daniela Serban
| 65 citiri

Compania de securitate cibernetică Irregular a reușit să obțină o finanțare de 80 de milioane de dolari într-o rundă de investiții condusă de Sequoia Capital și Redpoint Ventures, atingând o evaluare impresionantă de 450 de milioane de dolari. Focalizată pe identificarea riscurilor emergente asociate cu modelele de inteligență artificială, Irregular își propune să prevină problemele de securitate înainte ca aceste sisteme să fie lansate în mediul operational.

Neosapience atrage 11,5 milioane de dolari pentru tehnologia AI cu voce emoțională
RecomandariNeosapience atrage 11,5 milioane de dolari pentru tehnologia AI cu voce emoțională

Pe fondul unei evoluții rapide a tehnologiilor AI, compania Irregular se distinge printr-o abordare inovatoare. Fosta Pattern Labs a reușit să atragă o sumă considerabilă de fonduri, ridicându-se astfel la întrebarea: ce anume o diferențiază de alte startup-uri din domeniul tehnologiei?

Finanțare și evaluare: detalii esențiale

Surse din interiorul negocierilor confirmă că Irregular a atins o evaluare de 450 de milioane de dolari după această rundă de finanțare. Alături de Sequoia Capital și Redpoint Ventures, la această rundă a contribuit și Assaf Rappaport, fondatorul Wiz. Această sumă semnificativă reflectă încrederea tot mai mare a investitorilor în importanța securității în domeniul inteligenței artificiale.

MarqVision atrage 48 milioane de dolari pentru lupta împotriva falsurilor
RecomandariMarqVision atrage 48 milioane de dolari pentru lupta împotriva falsurilor

Irregular a fost selectată de investitori datorită portofoliului său deja impresionant. Compania a avut un rol activ în evaluarea securității pentru diverse modele de AI, inclusiv Claude 3.7 Sonnet și OpenAI o3 și o4-mini. Framework-ul său de testare a vulnerabilităților, cunoscut sub numele de SOLVE, este folosit pe scară largă în industrie.

Cum testează Irregular modelele de inteligență artificială

Omer Nevo, co-fondatorul Irregular, descrie un sistem complex de simulare: „Avem rețele virtuale în care AI-ul joacă atât rolul de atacator, cât și pe cel de apărător. Atunci când un model nou este lansat, putem observa exact unde funcționează apărările și unde acestea cedează.”

Această metodă permite identificarea riscurilor înainte ca modelele să ajungă la utilizatori. De exemplu, Irregular poate descoperi comportamente neașteptate sau vulnerabilități ascunse în interacțiunile dintre sistemele AI.

Importanța simulărilor pentru securitatea AI

Pe măsură ce modelele devin din ce în ce mai autonome, interacțiunile dintre acestea pot genera scenarii greu de anticipat de către dezvoltatori. Sistemul Irregular creează medii controlate pentru a testa modelele în condiții dificile, similare cu cele întâlnite într-un poligon de testare digital.

Contextul industriei și importanța securității AI

Anul acesta, OpenAI a revizuit măsurile sale interne de securitate din cauza riscurilor de spionaj corporativ. Posibilitatea ca modelele de AI să exploateze vulnerabilitățile software a devenit o preocupare majoră, unele dintre acestea fiind capabile să analizeze codul mai rapid decât experții umani.

Dan Lahav, co-fondatorul Irregular, afirmă: „Dacă scopul laboratoarelor de cercetare de vârf este să dezvolte modele din ce în ce mai sofisticate, obiectivul nostru este să le securizăm. Cu toate acestea, aceasta este o țintă în continuă mișcare, ceea ce înseamnă că va fi nevoie de mult mai multă muncă în viitor.”

Aceasta sugerează că fiecare nou model AI poate reprezenta o potențială vulnerabilitate de securitate. Soluțiile tradiționale nu sunt suficiente, având în vedere că AI-ul poate detecta vulnerabilitățile în câteva secunde.

Planurile Irregular pentru viitor

Fondurile obținute vor fi utilizate pentru extinderea echipelor de cercetare și dezvoltarea unor noi tehnologii de simulare. Compania are în vedere lansarea unui sistem de monitorizare în timp real pentru modelele de AI utilizate în producție.

Provocarea principală rămâne adaptarea la ritmul rapid de evoluție al tehnologiei. „Nu există un punct final”, recunoaște Lahav. „Securitatea AI va fi un proces continuu, nu un produs finit.”

Pentru utilizatorii obișnuiți, acest lucru înseamnă că viitoarele generații de AI vor fi nu doar mai inteligente, ci și mai sigure. Investitorii care au susținut Irregular cu 80 de milioane de dolari își pun speranțele că aceste progrese vor aduce beneficii pe termen lung pentru întreaga industrie.

În concluzie, Irregular își propune să devină un lider în domeniul securității pentru inteligența artificială, abordând provocările emergente cu soluții inovatoare. Având în vedere că tehnologia AI continuă să avanseze, este esențial ca măsurile de securitate să evolueze în paralel pentru a proteja utilizatorii și sistemele de posibile amenințări.

Pe măsură ce avansurile în inteligența artificială devin tot mai complexe, Irregular se angajează să îmbunătățească metodele de evaluare a securității, asigurându-se că fiecare nou model este supus unor teste riguroase. Cu o echipă dedicată și fonduri solide, compania este bine poziționată pentru a face față provocărilor viitoare în acest domeniu dinamic.

Sursa: financiarul.ro