O CEO da Anthropic, Dario Amodei, afirmou em uma declaração recente que sua empresa não pode, em sã consciência, permitir que o Departamento de Defesa dos Estados Unidos utilize seus modelos de inteligência artificial (IA) para todos os fins legais sem restrições. Esta posição foi expressa em meio a pressões e ameaças de autoridades do Pentágono. Amodei enfatizou a importância de considerar as consequências éticas e morais do uso de tecnologias avançadas em operações militares, ressaltando o potencial de comprometimento das operações críticas. A decisão da Anthropic reflete uma crescente preocupação dentro da indústria de tecnologia sobre a utilização de IA em contextos militares e de defesa. O uso de IA em operações militares levanta questões complexas sobre responsabilidade, transparência e o impacto de decisões automatizadas em situações de vida ou morte. A postura de Amodei e da Anthropic se alinha com uma visão mais cautelosa em relação à aplicação de inovações tecnológicas em áreas sensíveis, buscando preservar a integridade e a ética no desenvolvimento de IA. Enquanto o Pentágono continua a buscar avanços tecnológicos para melhorar suas capacidades operacionais, a resistência da Anthropic destaca a necessidade de um debate mais profundo sobre os limites do uso de inteligência artificial em cenários militares.
Fonte: Breitbart











