A OpenAI anunciou nesta terça-feira (7) o início dos testes da sua ferramenta de detecção de conteúdos criados com recurso ao gerador de imagens DALL·E 3, para, entre outras funções, ajudar os investigadores a identificar mais facilmente conteúdos deepfakes.
“Abrimos hoje as inscrições para acesso ao classificador de detecção de imagens da OpenAI para o nosso primeiro grupo de testadores – incluindo laboratórios de pesquisa e organizações sem fins lucrativos de jornalismo voltadas para pesquisa (…)”, lê-se no comunicado.
O objectivo, segundo a OpenAI, é permitir pesquisas independentes que avaliem a eficácia da ferramenta, analisem a sua aplicação no mundo real, apresentem considerações relevantes para o seu uso e explorem as características do conteúdo gerado por IA.
Segundo a empresa, os testes internos em uma versão inicial da ferramenta revelaram a alta precisão do detector em distinguir imagens geradas com e sem recurso ao DALL·E 3. A OpenAI observa que o detector identificou correctamente quase 98% das imagens geradas no DALL·E 3 e menos de 0,5% das imagens não geradas por IA foram marcadas incorrectamente como sendo do DALL·E 3.
Entretanto, a capacidade do detector ainda é limitada e o seu desempenho na distinção entre imagens geradas no DALL·E 3 e outros modelos de IA é reduzido, sinalizando apenas cerca de 5-10% das imagens geradas por outros modelos de IA.
A OpenAI enfatiza que embora as soluções técnicas como este detector ajudem a garantir a autenticidade do conteúdo, a sua implementação prática exigirá uma acção colectiva a fim de permitir a transparência para o consumidor final.