Institutul va fi prezentat oficial marți în Parlamentul din Danemarca și este construit după un model inspirat din industria auto: aplicațiile AI ar urma să fie testate și evaluate similar testelor de siguranță pentru mașini, scrie Euronews. Inițiatorii proiectului spun că părinții ar trebui să poată verifica riscurile unei aplicații AI înainte ca aceasta să fie folosită de copii.
Cum ar urma să funcționeze noul institut
Noul organism va funcționa în cadrul Common Sense Media, organizație americană cunoscută pentru evaluarea conținutului digital destinat minorilor. Institutul intenționează să testeze chatboturi și alte produse bazate pe inteligență artificială pentru a identifica riscuri legate de sănătatea mintală, comportamente periculoase sau conținut sensibil pentru minori. Printre aplicațiile analizate în studii anterioare s-au numărat OpenAI, Anthropic, Google și Meta, prin produsele lor AI precum ChatGPT, Claude, Gemini și Meta AI.
Potrivit unui raport realizat în 2025 împreună cu laboratorul Stanford Brainstorm Lab, mai multe chatboturi nu au reușit să identifice corect semne ale problemelor de sănătate mintală la tineri. Cercetătorii au descoperit că sistemele ignorau indicii clare privind depresia, anxietatea sau riscul de suicid și ofereau adesea explicații legate doar de sănătatea fizică.
Reglementările actuale sunt considerate insuficiente
În prezent, multe aplicații AI funcționează într-o zonă gri din punct de vedere legislativ. Deși Uniunea Europeană a introdus reguli pentru platformele digitale prin Digital Services Act, chatboturile AI nu sunt încă reglementate clar în privința protecției minorilor. Margrethe Vestager a fost una dintre principalele figuri europene implicate în reglementarea marilor companii tehnologice în ultimul deceniu și a coordonat agenda europeană „Europe Fit for the Digital Age”. Fondatorul Common Sense Media, James P. Steyer, a declarat că inteligența artificială „remodelează copilăria și adolescența”, în timp ce deciziile privind siguranța copiilor sunt luate fără suficiente date și standarde clare.
Finanțare inclusiv din industria tehnologică
Institutul va fi finanțat atât din donații filantropice, cât și din contribuții ale unor companii din industria tech. Printre finanțatori se numără Anthropic, fundația OpenAI și Pinterest. Organizatorii susțin însă că finanțatorii nu vor avea influență asupra evaluărilor și concluziilor publicate. Institutul intenționează să dezvolte inclusiv instrumente open-source care să poată fi folosite de companiile AI pentru a-și testa propriile produse înainte de lansare.
MAI MULT MEDIAFAX





