De acordo com a empresa criadora do ChatGPT, a nova equipa, anunciada na última semana, vai dedicar-se ao rastreio, avaliação, prevenção e protecção para mitigar eventuais riscos catastróficos que o uso da Inteligência Artificial (IA) possa trazer à humanidade.
Os trabalhos da nova equipa da OpenAI incluem acções de contenção de “ameaças químicas, biológicas, radiológicas e nucleares”, assim como a protecção contra a “replicação autónoma” da IA. A empresa defende que é preciso garantir que há compreensão e infra-estruturas necessárias para a segurança de sistemas de IA altamente capazes.
A OpenAI acredita que os modelos de fronteira da IA vão ultrapassar todas as habilitadas actuais dos modelos mais avançados, com o potencial de beneficiar toda a humanidade, embora trazendo também potenciais riscos severos. Considerando os possíveis riscos, a nova equipa vai dedicar-se também a mitigação da capacidade da IA conseguir enganar humanos ou sistemas de cibersegurança.
A nova equipa será liderada pelo director do Center for Deployable Machine Learning do MIT, Aleksander Madry, que, segundo a OpenAI, deverá manter uma política de desenvolvimento consciente e informada dos riscos.
Recorde-se que em Maio último os líderes da Google, OpenAI, Microsoft e Antropic assinaram uma declaração com vista a apelar à necessidade e importância de se atenuar o risco de extinção da humanidade devido à inteligência artificial. Na declaração, emitida pelo Centro para a Segurança da Inteligência Artificial, as empresas concordam que “mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.
Na altura, o Centro para a Segurança da Inteligência Artificial admitiu que expressar preocupações sobre alguns dos riscos mais graves da IA avançada pode ser difícil. Desta forma, a referida declaração e os seus signatários “pretendem superar esse obstáculo e iniciar a discussão. Pretendem também criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.