ADVFN Logo ADVFN

Não encontramos resultados para:
Verifique se escreveu corretamente ou tente ampliar sua busca.

Tendências Agora

Rankings

Parece que você não está logado.
Clique no botão abaixo para fazer login e ver seu histórico recente.

Hot Features

Registration Strip Icon for alerts Cadastre-se para alertas em tempo real, use o simulador personalizado e observe os movimentos do mercado.

Microsoft pede uma nova agência nos EUA e licenciamento para IA

LinkedIn

A Microsoft Corp (NASDAQ:MSFT) está pedindo uma nova agência dos EUA para regular a inteligência artificial e os requisitos de licenciamento para operar as ferramentas de IA mais poderosas, disse o presidente da empresa, Brad Smith, na quinta-feira (25).

A Microsoft também é negociada na B3 através do ticker (BOV:MSFT34).

Smith comparou a IA à impressora, elevadores e segurança alimentar tanto pelo poder transformador de uma nova tecnologia quanto pela necessidade regulatória de proteção contra os maiores danos potenciais. Seu pedido por uma nova agência ecoa as propostas da OpenAI, a startup por trás do popular ChatGPT, que recebeu um investimento de US$ 10 bilhões da Microsoft.

“Nós nos beneficiaríamos com uma nova agência”, disse Smith em um discurso em Washington. “É assim que garantiremos que a humanidade permaneça no controle da tecnologia.”

A ideia de uma agência governamental com a responsabilidade de definir as regras básicas para a IA ganhou atenção na semana passada em uma audiência no Senado com Sam Altman, diretor executivo da OpenAI. Altman e muitos dos senadores que o questionaram concordaram que o processo legislativo é muito lento e partidário para acompanhar os recursos de IA e possíveis aplicações, e uma agência estaria melhor posicionada para definir regras para proteger os usuários.

Embora essa proposta tenha gerado conversas no Capitólio, ela ainda está longe de ser transformada em legislação. Os apelos nos últimos anos para regulamentar a mídia social não deram em nada no Congresso.

Infraestrutura crítica

Smith também disse que a tecnologia de IA em rápido desenvolvimento deve ser transparente, com desenvolvedores em parceria com pesquisadores governamentais e acadêmicos para enfrentar os desafios sociais que surgirão. Ele propôs “freios de segurança” para a tecnologia de IA usada em aplicações de alto risco, como infraestrutura crítica.

“Novas leis exigiriam que os operadores desses sistemas construíssem freios de segurança em sistemas de IA de alto risco desde o projeto”, disse Smith em um post de blog que acompanha seu discurso. “O governo garantiria que os operadores testassem sistemas de alto risco regularmente para garantir que as medidas de segurança do sistema sejam eficazes”.

O governo Biden lançou vários guias não vinculativos para o desenvolvimento e uso de produtos de IA, embora os EUA estejam muito atrás dos esforços regulatórios da Europa. A Lei de IA da UE estava nos estágios finais de debate quando o lançamento do ChatGPT e outros aplicativos geradores de IA lançaram dúvidas sobre as regras que se concentram em como a tecnologia é usada, em vez de como ela é inicialmente desenvolvida.

Conflito europeu

Altman disse a repórteres em Londres na quarta-feira que a OpenAI poderia retirar seus produtos da Europa se não cumprir as novas regras propostas para a IA de uso geral. Em um tweet na quinta-feira, o comissário da UE, Thierry Breton, acusou Altman de “tentativa de chantagem”.

Questionado sobre a ameaça de Altman, Smith disse que é importante para a indústria de tecnologia explicar como a regulamentação proposta funcionaria na prática. Ele disse estar otimista de que “a razão prevalecerá” na versão final da Lei de IA da Europa.

“O processo legislativo em todo país democrático inevitavelmente tem suas reviravoltas”, disse Smith em Washington após seu discurso. “Há dias em que aqueles de nós que podem saber mais sobre um campo técnico se levantam e veem algo que, com razão, gostaríamos de apontar que provavelmente não funcionará da maneira que as pessoas que o escreveram realmente pretendiam.”

As empresas de tecnologia dos EUA elogiaram uma estrutura lançada em janeiro pelo Instituto Nacional de Padrões e Tecnologia, que se concentra em como a tecnologia de IA é usada – e no nível de risco desse aplicativo – e não em como é desenvolvida. Smith apresentou esse modelo em seu discurso como uma “nova disciplina intelectual para inteligência artificial” para ajudar a medir e gerenciar essa tecnologia.

O discurso de Smith contou com a presença de vários membros do Congresso. Quando o representante democrata Ritchie Torres, de Nova York, perguntou como o Congresso deveria equilibrar a regulamentação com a inovação para se manter à frente da China, Smith instou as democracias ocidentais a se unirem para estabelecer um padrão global para a regulamentação da IA.

“Eu compartilho da preocupação de que possa haver outras partes do mundo que não adotem os mesmos tipos de grades de proteção que nós adotamos”, disse Smith. “É muito importante reunir a União Europeia, o Reino Unido, os Estados Unidos e outros países para dizer: aqui está um modelo, aqui está um modelo que não apenas promove a inovação, mas protege as pessoas, protege a humanidade, preserva os direitos fundamentais.”

A investida da Microsoft em inteligência artificial, incluindo seu suporte para OpenAI, pressionou concorrentes como o Google, da Alphabet Inc, a lançar mais rapidamente seus próprios aplicativos de IA e integrar a tecnologia a produtos existentes. Na semana passada, o Google publicou suas próprias recomendações de política para o desenvolvimento responsável da IA, que, segundo ele, aproveitaria seu potencial econômico e, ao mesmo tempo, reduziria alguns dos riscos para a sociedade.

Por Bloomberg/Anna Edgerton e Dina Bass

Deixe um comentário