Como a regulamentação das IAs pode impactar o cenário da cibersegurança?
Representantes de 27 países, incluindo o Brasil, reuniram-se para tentar elaborar diretrizes para o uso seguro de programas de inteligência artificial
Todo mundo que está na internet hoje precisa se preocupar com o futuro da inteligência artificial. Afinal, essa tecnologia irá se tornar cada vez mais onipresente na nossa vida e pode impactar em várias questões o nosso cotidiano.
De acordo com um levantamento feito pela Blaze Information Security, os gastos dos brasileiros com IA cresceram 120% em relação ao ano anterior. E a tendência é que isso só aumente: conviveremos cada vez com a automação nas tarefas comerciais e domésticas, análise de dados, algoritmos especializados no nosso comportamento, aplicativos que simulam vozes e imagens humanas, e assim por diante.
Tudo isso suscita novas demandas e questões – por exemplo, no que diz respeito à nossa cibersegurança. Tendo isso em mente, é preciso estar atento aos desafios que surgem e à regulação necessária para que seja sempre realizado um uso ético da nova tecnologia.
Afinal, a IA, quando não moderada, também pode ser utilizada para aplicar novas modalidades de golpe, ameaçando ainda mais a vida dos cidadãos.
A legislação de IA pelo mundo
Várias nações estão hoje se debruçando sobre a questão da regulamentação da IA. Recentemente, representantes de 27 países (incluindo os da União Europeia, o Canadá e o Brasil) se uniram para tentar elaborar diretrizes para o uso seguro de programas de inteligência artificial.
Na Europa, o Parlamento apresentou em junho de 2023 o ‘AI Act’, legislação com regras que devem ser adotadas pelos países signatários. Com a aprovacão final, do projeto, ocorrida no dia 13 de março de 2024, estabeleceu-se a primeira legislação de IA do mundo.
O ‘AI Act’ define a inteligência artificial como “um sistema baseado em máquinas, concebido para funcionar com níveis de autonomia variáveis que pode apresentar capacidade de adaptação após a implantação. Para objetivos explícitos ou implícitos e com base nos dados de entrada que recebe, conclui a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.
Dentre os fatores estabelecidos pelo ‘AI Act’, estão que os sistemas de IA sejam:
- seguros;
- transparentes;
- rastreáveis;
- não discriminatórios;
- que respeitem a privacidade das pessoas.
Porém, especialistas defendem que ainda não está claro nesta lei como esses objetivos devem ser cumpridos. Há também a prerrogativa de que sistemas de inteligência artificial estejam sempre sob supervisão humana.
Isso tem estimulado que outras nações, incluindo aqui o Brasil, procurem estabelecer suas próprias regras. No país, há pelo menos quatro Projetos de Lei (PLs) buscando criar essa normativa. A ideia é que a regulamentação ajude a diminuir riscos causados pelo mau uso da IA, como a invasão da privacidade dos cidadãos, o roubo de dados e o desrespeito aos direitos de grupos minoritários.
Quais são os principais desafios jurídicos na regulamentação da IA?
Os projetos propostos por políticos brasileiros até o momento visam estabelecer uma legislação comum que se adeque às necessidades das partes interessadas. Mas é preciso tomar algumas decisões em relação a qual será o “nível” dessa regulação.
Especialistas dizem que uma regulação “forte” pode tornar difícil que empresas pequenas se desenvolvam dentro desse cenário, já que não teriam condições de atender a todos os requisitos da lei. Por isso, há uma visão de que a legislação aprovada precisa ainda ser nivelada pela realidade brasileira.
Dentre os projetos que estão transitando, há o PL 21/2020, também conhecido como o marco legal para regulamentar o uso de IA. Ele enumera princípios que devem guiar a aplicação da IA no país, contendo temas como o respeito à dignidade humana, transparência dos algoritmos e proteção de dados pessoais.
Já o PL 2338/2023 visa estabelecer os direitos do cidadão que é afetado pela IA, além de criar ferramentas de fiscalização. O projeto se centraliza em cinco pilares: princípios; direitos dos afetados; classificação de riscos; obrigações e requisitos de governança; supervisão e responsabilização.
Mas um dos desafios que ainda torna a regulação complexa é a falta de conhecimento técnico dos legisladores sobre a tecnologia. Há quem diga que isso pode representar uma ameaça na evolução da IA no país, pois seus limites poderiam ser impostos artificialmente.
Portanto, pode-se dizer que o Brasil vive hoje em certo impasse: a regulação forte pode, talvez, inibir propostas inovadoras de uso da IA. Por outro lado, a ausência de normas pode conduzir a um uso problemático da tecnologia.
Como poderia ser a futura regulamentação da inteligência artificial no Brasil?
Ainda não há uma regulamentação aprovada para a inteligência artificial no Brasil, mas as propostas ainda estão cercadas de nebulosidade e opiniões diversas. Uma questão importante é notar que os projetos foram produzidos antes do lançamento do ChatGPT, e, por isso, ainda não lidavam com as IA generativas.
Por isso, uma legislação útil poderia ser aquela que preveja regras para uso dessa tecnologia, estabelecendo como se deve lidar com questões relevantes como deepfake de áudio e vídeo – que tendem a causar muitos problemas em momentos críticos da vida política, como durante as eleições.
Outra possibilidade sinalizada pelos advogados é que a legislação já existente no Código Civil seja aplicada nesses casos. É a opinião, por exemplo, do advogado Antonio Carlos Morato, da Faculdade de Direito da USP. O professor pesquisa direito autoral e inteligência artificial e disse não ver a necessidade de leis específicas para esse tipo de uso.
“Sem dúvida, é possível evitar que utilizações não autorizadas ocorram com o que já temos na Constituição Federal, Código Civil e Lei de Direitos Autorais. O Projeto de Lei n° 3614/23, por exemplo, pretende apenas detalhar o que já existe no texto atual do Código Civil”, declarou em entrevista à Fapesp.
O fato é que, independente de qual seja o nível de regulação, torna-se cada vez mais necessário que o Brasil pense em regras que atendam as suas necessidades específicas, de modo a já agir preventivamente quanto a futuros problemas que podem ser causados pela IA.
Via Tecmundo