• Agosto 19, 2025
Logo_Site_01

Rival do ChatGPT recebe funções de segurança para evitar pedidos abusivos

De acordo com a informação divulgada, o Claude vai passar a ter a capacidade de terminar conversas, quando identificar pedidos abusivos feitos pelos utilizadores à ferramenta de IA.

Entre as informações consideradas abusivas estão “pedidos de utilizadores relacionados com conteúdo sexual que envolva menores ou tentativas de solicitar informações que possibilitem violência em grande escala ou atos de terrorismo”.

A empresa refere que funcionalidade está limitada a situações muito concretas, pelo que será ativada apenas em “casos raros e extremos de interações persistentemente prejudiciais ou abusivas por parte dos utilizadores”.

Neste sentido, o fim de uma interação será ativado como um “último recurso quando várias tentativas de redirecionamento falharem e a esperança de uma interação produtiva se esgotar”, explica a Anthropic.

Quando o fim de uma conversa for desencadeado por este tipo de situações, o utilizador fica privado de enviar novas mensagens nessa interação, mantendo apenas a possibilidade de editar mensagens anteriores e alterar o rumo do diálogo.

A Anthropic é uma ‘startup’ americana de IA, especializada no desenvolvimento de sistemas de IA e modelos de linguagem, responsável pelo desenvolvimento do ‘chatbot’ Claude.

 

Lusomark pub
    Deixe um comentário
    Logo branco

    Ultimas Noticias

    Categorias

    Logo branco
    Comunidade Lusa é um site de notícias onde pode encontrar as mais recentes informações sobre a nossa comunidade portuguesa no mundo e acima de tudo na Suíça. Aqui encontra também novidades sobre eventos culturais e temas como: desporto, mulher, opinião e publireportagens muito interessantes sobre empresas na Suíça.
    © Comunidade Lusa 2025. Todos direitos reservados.
    WP2Social Auto Publish Powered By : XYZScripts.com