Você está visualizando atualmente Regulamentação da IA percorre entre a inovação e a responsabilidade social global

Regulamentação da IA percorre entre a inovação e a responsabilidade social global

O rápido avanço que estamos assistindo da inteligência artificial traz consigo questões de segurança, éticas e sociais, que destacam a necessidade de regulação para garantir a responsabilidade no uso da tecnologia.

Em novembro de 2023, estávamos apenas conhecendo o ChatGPT e a IA generativa. Hoje, já vemos empresas lançando novos produtos baseados em dados processados pela IA, como o exemplo da Jetson, depois do trabalho de segmentação elaborado pela DHAUZ. E até mesmo criações mais peculiares, como o casamento da artista espanhola Alicia Framis com um marido gerado pela inteligência artificial.

Panorama da regulamentação da IA 

No Brasil, desde o ano passado, foram apresentados quatro Projetos de Lei (PL) propondo diretrizes para o uso responsável da IA no país. O PL 2338/2023, em tramitação no Congresso Nacional, é considerado o mais abrangente, com a proposta de regulamentar o uso da IA em diversos setores, com ênfase na proteção da privacidade e na transparência, além de fiscalização no uso de programas de IA.

Além disso, recentemente, representantes do governo brasileiro comprometeram-se a desenvolver políticas públicas favoráveis ao desenvolvimento seguro da IA, em uma declaração conjunta durante o “AI Safety Summit” no Reino Unido, que contou com o apoio de outras 28 delegações nacionais e da União Europeia.

Mas a grande novidade neste sentido está na União Europeia, que é a primeira em aprovar uma lei de regulamentação da inteligência artificial, a chamada “AI Act”. A normativa visa garantir a utilização de sistemas de inteligência artificial por meio de uma escala de risco, que está subordinada ao grau de impacto nos direitos e no bem-estar das pessoas.

Nos Estados Unidos, há algumas semanas, o presidente Joe Biden assinou uma ordem executiva para regular e promover o desenvolvimento seguro da inteligência artificial, o que representa um importante avanço na regulamentação da IA ​​nos Estados Unidos e uma inspiração para outros países.

Como vemos, globalmente, o principal objetivo com a regulamentação da IA é proibir a violação dos direitos humanos, ou que ela coloque em risco a saúde e a segurança das pessoas, promovendo seu desenvolvimento ético e seguro. Contudo, algumas medidas específicas para empresas desenvolvedoras de IA também começam a aparecer.

Os países do G7 acordaram, no último mês de outubro, um código de conduta para empresas, visando mitigar os riscos derivados desta tecnologia, incluindo a violação da privacidade ou da propriedade intelectual.

Além disso, em setembro, o Canadá apresentou um código de conduta voluntário para o uso de sistemas avançados de inteligência artificial generativa. Este código inclui compromissos de transparência e prevenção de viés e preconceitos. As empresas que assinaram o acordo, se comprometem a apoiar o desenvolvimento de um ecossistema de IA responsável, contribuindo para a criação de padrões e compartilhamento informações.

A IA continuará avançando

As projeções para 2024 indicam que a IA não vai parar e devemos esperar uma contínua expansão do seu papel em diversos setores, impulsionando a eficiência operacional, inovação e aprimoramento dos serviços.

Contudo, tudo indica que é a implementação ética e responsável da IA que continuará sendo uma consideração crítica para garantir benefícios sustentáveis.  Nesse panorama dinâmico, a colaboração global deve enfrentar os desafios para que as regulamentações sejam tão avançadas quanto as tecnologias que buscam regular.