O G7, grupo formado pelos sete países mais industrializados do mundo, começou a debater nesta semana um código de conduta para empresas que desenvolvem sistemas avançados de inteligência artificial (IA).

A ideia é que os governos encontrem uma maneira de minimizar os riscos potenciais do uso indevido da tecnologia. O documento demonstra preocupações com a privacidade e segurança.

Para dar andamento a esse projeto, os líderes do Canadá, França, Alemanha, Itália, Japão, Grã-Bretanha e Estados Unidos, bem como a União Europeia, se reúnem desde maio para chegar a um consenso sobre a questão.

Agora, com o acordo voluntário quase pronto, pois já conta com 11 pontos importantes, o documento “visa promover uma IA segura e confiável em todo o mundo, além de fornecer orientação voluntária para ações e organizações que desenvolvem os sistemas de IA mais avançados, incluindo os modelos básicos e sistemas de IA generativos”.

Como atribuição às empresas, as regras exigem a identificação, avaliação e mitigação de riscos ao longo do ciclo de vida da inteligência artificial, além de encontrar maneiras para abordar incidentes e padrões de utilização indevida.

O mundo e a inteligência artificial

Ilustração mostra uma mão robótica segurando um desenho escrito "IA"

Imagem: Deemerwha studio/Shutterstock

A União Europeia tem estado à frente de diversas regulamentações sobre IA. Japão, Estados Unidos e países do Sudeste Asiático, por outro lado, têm se mostrado indiferentes quanto ao assunto.

De qualquer forma, o marco pode ser benéfico para evitar problemas na utilização da tecnologia, bem como mitigar qualquer prática abusiva por parte de empresas que desenvolvem ferramentas do tipo.

Via: Reuters

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários