Bloco europeu avança na criação de um marco legal para a tecnologia que pode transformar a sociedade e a economia
A União Europeia (UE) alcançou um acordo político histórico para regulamentar a inteligência artificial (IA), uma tecnologia que pode ter implicações profundas para a sociedade e a economia. O acordo, anunciado na quarta-feira (14), é o primeiro passo para a aprovação de uma lei que visa garantir o uso ético, seguro e responsável da IA no bloco.
A lei da IA, proposta pela Comissão Europeia em abril, classifica os sistemas de IA em quatro categorias de risco: inaceitável, alto, limitado e mínimo. Os sistemas considerados inaceitáveis, por violarem os valores e direitos fundamentais da UE, serão proibidos. Entre eles, estão os sistemas de reconhecimento facial em tempo real em espaços públicos, as ferramentas de policiamento preditivo e os sistemas de pontuação social.
Os sistemas de alto risco, que podem afetar a saúde, a segurança ou os direitos das pessoas, estarão sujeitos a requisitos rigorosos de transparência, qualidade e supervisão. Entre eles, estão os sistemas de recrutamento, crédito, diagnóstico médico e transporte. Os sistemas de risco limitado, que podem gerar efeitos adversos limitados, deverão informar aos usuários que estão interagindo com uma máquina. Entre eles, estão os chatbots, como o ChatGPT da OpenAI, e os assistentes virtuais. Os sistemas de risco mínimo, que representam a maioria das aplicações de IA, estarão livres de qualquer obrigação.
Por que a regulamentação da IA é importante
A regulamentação da IA é importante porque essa tecnologia pode trazer benefícios, mas também riscos, para a sociedade e a economia. A IA pode melhorar a eficiência, a inovação, a produtividade e a competitividade, mas também pode gerar desafios éticos, jurídicos e sociais, como a discriminação, a invasão de privacidade, a manipulação, a perda de empregos e a responsabilidade.
A UE quer se posicionar como um líder global na promoção de uma IA confiável e centrada no ser humano, que respeite os valores e os direitos europeus. O bloco também quer estimular o desenvolvimento e a adoção da IA na Europa, que atualmente está atrás dos Estados Unidos e da China, os principais polos de inovação e investimento na área.
A lei da IA é parte de uma estratégia mais ampla da UE para se tornar um espaço digital soberano e democrático, que inclui outras iniciativas, como o Regulamento Geral de Proteção de Dados (GDPR), o Ato de Serviços Digitais, o Ato de Mercados Digitais e o Ato de Governança de Dados.
Como a regulamentação da IA afeta o Brasil
A regulamentação da IA na Europa pode afetar o Brasil de várias formas, tanto positivas quanto negativas. Por um lado, pode estimular o Brasil a adotar padrões semelhantes de governança da IA, que garantam o respeito aos direitos humanos, a proteção dos dados pessoais, a transparência e a responsabilidade. O Brasil já tem iniciativas nesse sentido, como a Lei Geral de Proteção de Dados (LGPD) e a Estratégia Brasileira de Inteligência Artificial.
Por outro lado, pode dificultar o acesso e a integração do Brasil ao mercado europeu de IA, que pode se tornar mais restritivo e exigente. O Brasil pode ter que se adaptar às regras europeias, que podem ser diferentes das regras de outros parceiros comerciais, como os Estados Unidos e a China. O Brasil também pode ter que investir mais em pesquisa, desenvolvimento e inovação em IA, para não ficar para trás na corrida tecnológica global.
Por @alexferreira.dna | Fique de olho!
Siga @jornalcarangola⤵️
Comments