• Novembro 3, 2025
Logo_Site_01

Sistemas de IA generativa? “Estão sujeitos a cometer erros”

Vários são os exemplos de informação errada ou falsa dada pelos modelos de inteligência artificial generativa (com capacidade de criar conteúdos), onde se inclui motores de pesquisa, sendo que em Portugal, um dos mais recentes levou a Google a corrigir os conteúdos falsos sobre quem era Anabela Natário, depois da jornalista e escritora ter feito queixa à tecnológica.

Esse é um tema “que está na ordem do dia. Aliás, ainda não resolvemos problemas anteriores relacionados com os motores de busca e já temos um novo problema que tem a ver com as alucinações dos sistemas de inteligência artificial, em particular os de inteligência artificial generativa”, refere o jurista.

“Acho que todos nós devemos compreender que isto é uma decorrência natural destes sistemas, em especial aqueles de âmbito […] ‘general purpose AI’, de propósito genérico”, prossegue, explicando a razão.

“Porque a qualidade do ‘input’ [da informação] que é recebido por parte destes sistemas de inteligência artificial generativa é muitas vezes frágil, o que leva a que a ferramenta acabe por produzir ‘outputs’ igualmente frágeis e errados, aquilo que normalmente e muitas vezes chamamos de alucinações”, contextualiza.

Agora, “isto é uma realidade com a qual nós temos que viver, na mesma medida em que quando perguntamos algo a uma pessoa e a resposta acaba por não vir correta, também estes sistemas estão sujeitos a cometer erros”, considera João Leitão Figueiredo.

Por isso, “todas as pessoas devem ter em consideração que isto são ferramentas de apoio e não são especialistas técnicos, seja em que matéria for”, adverte o jurista da CMS Portugal.

No caso das empresas, diz, é menos provável que haja tantos erros sobre a informação “na medida em que a firma ou a denominação deverá ser única ou tendencialmente única” e depois há também o direito da propriedade industrial que terá o seu impacto não apenas registo da denominação, mas também de marca ou de logótipo das empresas.

“Diria que é problemático com pessoas singulares”, aponta, referindo que nestas circunstâncias, o regulamento de IA (AI Act) “foca muito em questões de transparência e gestão de risco e não tanto em termos de responsabilidade”, o que deixa o âmbito um pouco aberto.

Mas “não nos podemos esquecer em momento algum que temos a diretiva da ‘Product Liability Directive’ [PLD]”, ou seja, a Diretiva de Responsabilidade pelo Produto.

“É uma diretiva que vai entrar em vigor em 2026 relativa à responsabilidade decorrente dos produtos defeituosos. Portanto, é uma nova diretiva que passa a incluir também aqui nestas matérias a inteligência artificial e que estava um bocadinho subtraída”, refere.

Nesta diretiva, “existem mecanismos que impõem ao fabricante deste tipo de produto que, quando contactado pelos meios colocados ao dispor pelo consumidor ou a pessoa afetada, venham a corrigir a informação que é divulgada pela ferramenta”, sublinha João Leitão Figueiredo.

As regras da PLD clarificam especificamente que todos os tipos de ‘software’ estão abrangidos pela nova diretiva, incluindo aplicações, sistemas operativos e sistemas de IA.

Lusomark pub
    Deixe um comentário
    Logo branco

    Ultimas Noticias

    Categorias

    Logo branco
    Comunidade Lusa é um site de notícias onde pode encontrar as mais recentes informações sobre a nossa comunidade portuguesa no mundo e acima de tudo na Suíça. Aqui encontra também novidades sobre eventos culturais e temas como: desporto, mulher, opinião e publireportagens muito interessantes sobre empresas na Suíça.
    © Comunidade Lusa 2025. Todos direitos reservados.
    WP2Social Auto Publish Powered By : XYZScripts.com