O rápido avanço que estamos assistindo da inteligência artificial traz consigo questões de segurança, éticas e sociais, que destacam a necessidade de regulação para garantir a responsabilidade no uso da tecnologia.
Em novembro de 2023, estávamos apenas conhecendo o ChatGPT e a IA generativa. Hoje, já vemos empresas lançando novos produtos baseados em dados processados pela IA, como o exemplo da Jetson, depois do trabalho de segmentação elaborado pela DHAUZ. E até mesmo criações mais peculiares, como o casamento da artista espanhola Alicia Framis com um marido gerado pela inteligência artificial.
Panorama da regulamentação da IA
No Brasil, desde o ano passado, foram apresentados quatro Projetos de Lei (PL) propondo diretrizes para o uso responsável da IA no país. O PL 2338/2023, em tramitação no Congresso Nacional, é considerado o mais abrangente, com a proposta de regulamentar o uso da IA em diversos setores, com ênfase na proteção da privacidade e na transparência, além de fiscalização no uso de programas de IA.
Além disso, recentemente, representantes do governo brasileiro comprometeram-se a desenvolver políticas públicas favoráveis ao desenvolvimento seguro da IA, em uma declaração conjunta durante o “AI Safety Summit” no Reino Unido, que contou com o apoio de outras 28 delegações nacionais e da União Europeia.
Mas a grande novidade neste sentido está na União Europeia, que é a primeira em aprovar uma lei de regulamentação da inteligência artificial, a chamada “AI Act”. A normativa visa garantir a utilização de sistemas de inteligência artificial por meio de uma escala de risco, que está subordinada ao grau de impacto nos direitos e no bem-estar das pessoas.
Nos Estados Unidos, há algumas semanas, o presidente Joe Biden assinou uma ordem executiva para regular e promover o desenvolvimento seguro da inteligência artificial, o que representa um importante avanço na regulamentação da IA nos Estados Unidos e uma inspiração para outros países.
Como vemos, globalmente, o principal objetivo com a regulamentação da IA é proibir a violação dos direitos humanos, ou que ela coloque em risco a saúde e a segurança das pessoas, promovendo seu desenvolvimento ético e seguro. Contudo, algumas medidas específicas para empresas desenvolvedoras de IA também começam a aparecer.
Os países do G7 acordaram, no último mês de outubro, um código de conduta para empresas, visando mitigar os riscos derivados desta tecnologia, incluindo a violação da privacidade ou da propriedade intelectual.
Além disso, em setembro, o Canadá apresentou um código de conduta voluntário para o uso de sistemas avançados de inteligência artificial generativa. Este código inclui compromissos de transparência e prevenção de viés e preconceitos. As empresas que assinaram o acordo, se comprometem a apoiar o desenvolvimento de um ecossistema de IA responsável, contribuindo para a criação de padrões e compartilhamento informações.
A IA continuará avançando
As projeções para 2024 indicam que a IA não vai parar e devemos esperar uma contínua expansão do seu papel em diversos setores, impulsionando a eficiência operacional, inovação e aprimoramento dos serviços.
Contudo, tudo indica que é a implementação ética e responsável da IA que continuará sendo uma consideração crítica para garantir benefícios sustentáveis. Nesse panorama dinâmico, a colaboração global deve enfrentar os desafios para que as regulamentações sejam tão avançadas quanto as tecnologias que buscam regular.