A Lei de Inteligência Artificial (IA) da União Europeia tem data para entrar em vigor: 1º de agosto de 2024. O texto completo da Lei da IA foi publicado no Diário Oficial do bloco nesta sexta-feira, 12 de julho de 2024, e regulamentação será implementada gradualmente, de acordo com os níveis de risco associados ao uso do serviço de IA.
Já no Brasil, o PL 2338/2023 propõe um marco regulatório que visa a garantir a transparência, a segurança e a ética no uso da IA, com foco na proteção dos direitos dos cidadãos e na promoção da inovação. O projeto de lei está, no momento, em discussão no Congresso Nacional.
Neste post, você vai entender os principais objetivos da regulamentação da inteligência artificial na Europa e como está o andamento da lei da IA no Brasil. Continue a leitura!
O que o Parlamento Europeu pretende com a Lei da IA?
O Parlamento Europeu pretende garantir a segurança, a transparência e a ética no uso e desenvolvimento de sistemas de inteligência artificial. A lei da IA visa a proteger os direitos fundamentais dos cidadãos, evitar discriminações e abusos e promover a inovação responsável na área da inteligência artificial. Os desenvolvedores de IA terão diferentes obrigações de acordo com o nível de risco de uso da tecnologia, e a regulamentação será cobrada aos poucos para cada caso.
A lei da IA na União Europeia proíbe, por exemplo, a categorização de dados biométricos, a captura de rostos para reconhecimento facial sem permissão, o reconhecimento de emoções em ambiente de trabalho ou escolar, além do chamado policiamento preditivo, que busca prever ações criminosas com a avaliação do comportamento das pessoas.
Quais são os níveis de risco de IA na União Europeia?
Risco baixo: uso liberado pela lei da IA
As aplicações de IA de baixo risco são amplamente permitidas e têm poucas restrições, como é o caso do uso de IA para criar filtros de spam ou desenvolver jogos.
Risco limitado: uso liberado pela lei da IA
Para sistemas de IA de risco limitado, são exigidas algumas obrigações de transparência, como informar aos usuários que estão interagindo com uma IA. Isso se aplica principalmente a IAs generativas, como chatbots e deepfakes. A lei da IA também determina que conteúdos de interesse público feitos com a tecnologia, seja áudio, texto ou vídeo, devem ser rotulados como produções de IA.
Risco elevado: o uso da IA será monitorado pelo governo
Os sistemas de IA de risco elevado, como aqueles usados em recrutamento, saúde e aplicação da lei, estarão sujeitos a rigorosos requisitos de conformidade, incluindo avaliação de impacto e auditorias regulares. Esse tipo de aplicação de IA também será avaliado antes do seu lançamento no mercado, e usuários poderão reclamar às autoridades no caso de uso indevido.
Risco inaceitável: ferramentas cujo uso de IA é proibido
O risco inaceitável de IA se refere a aplicações como vigilância em massa e manipulação subliminar, que são proibidas pela nova lei da IA da União Europeia. Isso inclui casos como classificação de pessoas segundo comportamento ou características pessoais, ou identificação biométrica em tempo real e à distância.
O que é o PL 2338 sobre inteligência artificial?
O Projeto de Lei 2338, em discussão no Congresso Nacional, busca estabelecer um marco regulatório para a inteligência artificial no Brasil. O projeto aborda questões de responsabilidade, segurança e direitos dos usuários, propondo diretrizes claras para o desenvolvimento e a implementação de tecnologias de IA. O objetivo é assegurar que a IA no Brasil seja desenvolvida de acordo com princípios éticos e de respeito aos direitos humanos, promovendo a inovação e a competitividade no setor tecnológico.
O que a lei brasileira diz sobre inteligência artificial?
O texto da lei da IA em discussão no Brasil, o PL 2338/2023, propõe diretrizes para a transparência, explicabilidade, segurança, responsabilização e educação no uso de IA. O foco é criar um ambiente regulatório que favoreça a inovação, mas que também proteja os direitos dos cidadãos. Entre as propostas estão a exigência de que sistemas de IA sejam auditáveis e transparentes, para que seus processos decisórios sejam verificados.
O projeto de lei também estabelece normas de segurança para evitar o uso indevido e o abuso da IA. Setores mais críticos, como saúde, educação e segurança, deverão seguir requisitos específicos para usar IA. Além disso, a proposta tem o objetivo de regulamentar a coleta e uso de dados de cidadãos para treinar IAs.
Quem regulamenta a IA no Brasil?
A regulamentação da IA no Brasil ficará a cargo da Agência Nacional de Inteligência Artificial (ANIA), se o PL 2338/2023 for aprovado. O projeto de lei defende a criação dessa instituição para implementar e supervisionar a aplicação da lei da IA no Brasil.
Ficou interessado nesse tema e não quer perder mais atualizações? Então siga a Remessa Online no Instagram, LinkedIn, X (antigo Twitter), Facebook e YouTube.
Resumindo
O projeto de lei 2338 de 2023 propõe diretrizes para a transparência, explicabilidade, segurança, responsabilização e educação no uso de IA. O foco é criar um ambiente regulatório que favoreça a inovação, mas que também proteja os direitos dos cidadãos. Entre as propostas estão a exigência de que sistemas de IA sejam auditáveis e transparentes, para que seus processos decisórios sejam verificados.
A regulamentação da IA no Brasil ficará a cargo da Agência Nacional de Inteligência Artificial (ANIA), se o PL 2338/2023 for aprovado. O projeto de lei defende a criação dessa instituição para implementar e supervisionar a aplicação da lei da IA no Brasil.
Crédito das imagens: Envato Elements