A startup de inteligência artificial Anthropic está conduzindo uma investigação após relatos de que um grupo de usuários obteve acesso não autorizado ao seu modelo Claude Mythos. Este sistema de inteligência artificial é considerado poderoso e foi lançado deliberadamente apenas para um pequeno círculo de empresas confiáveis, devido às suas avançadas capacidades em segurança cibernética. O incidente levanta questões sérias sobre a proteção de dados e a responsabilidade das empresas de tecnologia em garantir a segurança de suas inovações. A Anthropic, que se destaca no mercado de IA, precisa abordar a situação com transparência, informando ao público e aos parceiros sobre as medidas que estão sendo tomadas para mitigar qualquer risco associado a essa violação de segurança. A proteção da informação e a segurança dos sistemas de IA são fundamentais, especialmente em um momento em que a tecnologia avança rapidamente e se torna parte integral de várias indústrias. Espera-se que a empresa revele mais detalhes sobre o incidente e como planeja fortalecer suas defesas contra acessos não autorizados no futuro. Este tipo de evento ressalta a importância de um debate mais amplo sobre a regulamentação e a supervisão de tecnologias emergentes, garantindo que a inovação não comprometa a segurança e a privacidade dos usuários.
Fonte: Breitbart








