#IA#Regulação de IA#Big Techs#Segurança de IA#Governo Americano
Governo Americano Exige Testes de Segurança em Modelos de IA de Big Techs Antes do Lançamento
EUA intensifica avaliação de IA de Google, Microsoft e xAI, exigindo testes de segurança antes do lançamento. Nova postura visa proteger contra fraudes e riscos, alinhando-se a esforços globais.
Gerado por IA
5 min de leitura
65% Similaridade
Revisado ✓
Destaques
- O governo dos Estados Unidos intensificou a avaliação de modelos de inteligência artificial (IA) desenvolvidos por gigantes da tecnologia, exigindo que empresas como Google, Microsoft e xAI compartilhem resultados de testes de segurança e outras informações críticas antes do lançamento público.
- Essa nova postura representa uma mudança significativa em relação à abordagem anterior, com acordos firmados entre o Centro de Padrões e Inovação em IA (Caisi), vinculado ao Departamento de Comércio dos EUA, e as big techs para avaliar o potencial impacto na segurança nacional e pública.
- A iniciativa busca garantir a segurança e a confiabilidade dos sistemas de IA, protegendo cidadãos contra riscos como fraudes, golpes e o uso indevido de tecnologias avançadas, ao mesmo tempo em que se alinha com esforços regulatórios internacionais.
Mudança de Rota na Regulação de IA
Em um movimento que sinaliza uma nova era na supervisão tecnológica, o governo dos Estados Unidos, sob a administração atual, passou a exigir que as grandes empresas de tecnologia (Big Techs) submetam seus modelos de inteligência artificial (IA) a uma avaliação rigorosa antes de serem disponibilizados ao público. Esta mudança de paradigma reflete uma preocupação crescente com a segurança, a confiabilidade e o potencial impacto dessas tecnologias na sociedade e na segurança nacional.
Acordos foram estabelecidos com empresas proeminentes como Google DeepMind, Microsoft e xAI, permitindo que o Centro de Padrões e Inovação em IA (Caisi), uma entidade ligada ao Departamento de Comércio dos EUA, avalie os mais recentes modelos de IA. O objetivo central é analisar as capacidades de ponta dessas tecnologias e aprimorar o estado da segurança em IA. Essa abordagem representa uma guinada em comparação com a política anterior, que tendia a uma intervenção mínima no desenvolvimento da IA, buscando evitar entraves à competitividade americana, especialmente em relação à China.
O Papel do Caisi e os Acordos Governamentais
O Caisi desempenha um papel crucial nesta nova fase, atuando como o principal órgão de avaliação. A entidade é responsável por realizar avaliações prévias à implementação e investigações específicas. Esses acordos, segundo fontes oficiais, retomam e adaptam compromissos firmados durante a gestão anterior de Joe Biden, mas agora com termos renegociados. O jornal The New York Times foi o primeiro a noticiar a existência de um grupo de trabalho, ainda em discussão, formado por executivos de tecnologia e representantes do governo, com o objetivo de examinar potenciais procedimentos de revisão para novos modelos de IA.