362
A supervisão humana e a adopção de boas práticas éticas no uso de sistemas de inteligência artificial (IA) são medidas que as empresas devem considerar, mesmo na ausência de incidentes reportados de fuga ou uso indevido de dados pessoais com recurso a IA, defendeu na última semana o director do Gabinete Jurídico da Agência de Protecção de Dados (APD).
Njunjulo António falava em entrevista ao Portal de T.I durante a Conferência Internacional de Inteligência Artificial (CIIA), realizada pela New Tech Angola.
Na ocasião, o responsável fez saber que, até ao momento, a APD não registou casos de violação de dados pessoais ocorridos com recurso a sistemas de IA. Njunjulo António observou, contudo, que “isso não significa que não possa surgir alguma situação que exija maior cuidado e intervenção da agência”.
“Os dados resultantes da nossa fiscalização e auditoria mostram que, até ao momento, não houve qualquer caso reportado de vazamento ou uso indevido de dados com recurso à inteligência artificial. Isto não se deve à ausência de regulação ou legislação, pois o controlo é realizado com base nos princípios que orientam o tratamento de dados, nomeadamente a transparência, a finalidade e a licitude”, afirmou.
Ainda sobre o uso de ferramentas de IA pelas empresas, o director jurídico da APD lembrou que a responsabilidade primordial recai sobre as entidades que concebem e operam os algoritmos, sendo essencial que os sistemas sejam criados sem viés que possa levar à discriminação ou à violação de dados pessoais.
Njunjulo António reforçou que a fiscalização da Agência assegura o cumprimento, mas a responsabilidade de concepção e operacionalização destes sistemas cabe às empresas.
Vale lembrar que está em consulta pública a Proposta de Lei sobre a Inteligência Artificial, documento visa garantir que a adopção da IA em Angola respeite os direitos fundamentais e promova um progresso tecnológico ético, inclusivo e sustentável.
Enquanto o país ainda não dispõe de legislação específica para a IA, Njunjulo António recomenda que as empresas respeitem os direitos já consagrados, como o de não sujeição a decisões automatizadas. Isso implica que os sistemas de IA devem incluir supervisão humana e auditorias contínuas, permitindo que decisões automatizadas possam ser revistas e contestadas pelos indivíduos afectados.
O director jurídico sublinhou ainda que o uso ético da IA pelas empresas não deve se limitar à conformidade regulatória diante da APD, uma vez que as possíveis falhas decorrentes do uso destes sistemas podem gerar danos reputacionais.
“Mais do que a sanção por parte do regulador, qualquer falha pode gerar danos reputacionais para a empresa e minar a confiança nos sistemas, cuja adesão depende da segurança e da protecção dos dados pessoais”, concluiu.




