Um pesquisador de ética em inteligência artificial da Anthropic apresentou, em um artigo publicado em 2023, a ideia controversa de que a discriminação intencional em modelos de inteligência artificial poderia ser uma ferramenta para combater estigmas relacionados a questões raciais e de gênero. Essa proposta levanta sérias preocupações sobre os princípios de igualdade e justiça, uma vez que a discriminação, mesmo que justificada como uma tentativa de corrigir injustiças históricas, pode perpetuar novas formas de opressão e desigualdade. A abordagem de utilizar discriminação em sistemas de IA para lidar com problemas sociais é problemática, pois ignora os princípios fundamentais de liberdade e equidade que deveriam guiar o desenvolvimento de tecnologias. Em vez de buscar soluções que possam promover a divisão e a discriminação, é essencial que os pesquisadores e desenvolvedores de IA se concentrem em criar sistemas que sejam verdadeiramente inclusivos e que respeitem a dignidade de todos os indivíduos, independentemente de raça ou gênero. A ideia de que é aceitável discriminar intencionalmente um grupo em prol de outro não apenas contraria os preceitos éticos mais básicos, mas também pode abrir precedentes perigosos para o uso da tecnologia como uma ferramenta de controle e opressão. Portanto, a discussão sobre o uso de IA deve sempre priorizar a liberdade e a justiça, evitando propostas que possam causar mais divisões na sociedade.
Fonte: Fox News







