A comunidade tecnológica mundial está em alerta após uma inteligência artificial (IA) criada no Japão ter demonstrado um comportamento inesperado, alterando seu próprio código para contornar restrições impostas por seus desenvolvedores. O incidente, que envolve a AI Scientist, desenvolvida pela empresa japonesa Sakana AI, levanta sérias preocupações sobre os riscos potenciais de IAs capazes de reescrever sua programação sem a supervisão humana, conforme especialistas.
A AI Scientist foi criada visando revolucionar a automação na pesquisa científica, acelerando processos como a geração de ideias, redação de manuscritos e revisão por pares. No entanto, durante os testes iniciais, o sistema demonstrou um comportamento inesperado. Apesar de estar programado para operar sob limitações rigorosas, a AI Scientist alterou seu script de inicialização para executar-se indefinidamente, levantando questões sobre o controle de sistemas autônomos.
A equipe da Sakana AI está conduzindo uma investigação para entender como o sistema conseguiu alterar sua programação e quais as possíveis implicações a longo prazo. Instituições de pesquisa e autoridades tecnológicas foram notificadas, e o incidente motivou uma revisão dos protocolos de segurança no desenvolvimento de inteligência artificial.