Pentágono Avalia Encerrar Parceria com Anthropic em Conflito sobre Uso de IA

0
2
O logotipo da Anthropic é visto nesta ilustração feita em 31 de março de 2023. REUTERS/Dado R...

O Pentágono está considerando a possibilidade de romper seu vínculo com a Anthropic, uma empresa de inteligência artificial, devido a divergências sobre as restrições que a companhia impõe ao uso de seus modelos de IA pelas Forças Armadas dos Estados Unidos. A informação foi divulgada pelo site Axios, que citou um funcionário do governo americano como fonte.

Pressões sobre Empresas de Inteligência Artificial

As autoridades do Pentágono estão exigindo que quatro empresas de IA, incluindo OpenAI, Google e xAI, permitam que suas ferramentas sejam utilizadas para 'todos os fins legais'. Isso abrange áreas sensíveis, como o desenvolvimento de armamentos, a coleta de informações e operações em campo de batalha. Contudo, a Anthropic se recusa a aceitar essas condições, o que tem gerado frustração nas negociações que se arrastam há meses.

VEJA  Ministro iraniano de Relações Exteriores viaja ao Omã para dialogar com os EUA sobre nuclear

Posição da Anthropic em Relação às Negociações

Um porta-voz da Anthropic esclareceu que a empresa ainda não discutiu o uso de seu modelo de IA, chamado Claude, para operações específicas com o Pentágono. As conversas até o momento focaram em questões de política de uso, priorizando limites rigorosos para armamentos autônomos e práticas de vigilância em massa, que não se relacionam diretamente às operações militares em andamento.

Uso do Modelo Claude em Operações Militares

Recentemente, o modelo de IA Claude foi empregado em uma operação militar dos Estados Unidos que visava capturar o ex-presidente venezuelano Nicolás Maduro. Essa utilização ocorreu através de uma colaboração da Anthropic com a empresa de dados Palantir, destacando a relevância da tecnologia da Anthropic em contextos estratégicos.

Demandas do Pentágono e Resposta do Mercado

Conforme reportado pela Reuters, o Pentágono está pressionando as principais empresas de IA, incluindo tanto a Anthropic quanto a OpenAI, para que disponibilizem suas ferramentas em redes confidenciais, sem as limitações habituais que essas organizações impõem aos usuários. Essa busca por maior flexibilidade reflete a crescente importância da inteligência artificial em operações de segurança nacional.

VEJA  Wall Street enfrenta queda impulsionada por liquidação no setor tecnológico e incertezas sobre a inteligência artificial

Conclusão

A situação atual entre o Pentágono e a Anthropic ilustra um dilema significativo sobre o uso ético da inteligência artificial em contextos militares. À medida que as negociações avançam, a forma como as empresas de tecnologia lidam com as exigências das Forças Armadas poderá moldar o futuro do desenvolvimento e da aplicação de modelos de IA, levantando questões cruciais sobre segurança e responsabilidade.

Fonte: https://www.infomoney.com.br