Regulamentação da inteligência artificial pode ser saída para reduzir riscos aos seres humanos
Especialistas paraenses concordam com a medida e dizem que, sem ela, os usuários podem sofrer discriminações e receber informações falsas
Especialistas paraenses concordam com a medida e dizem que, sem ela, os usuários podem sofrer discriminações e receber informações falsas
A inteligência artificial (IA) tem feito cada vez mais parte do dia a dia dos seres humanos, seja em casa ou no trabalho, na indústria ou no meio acadêmico. O fato é que sistemas inteligentes que conversam quase como pessoas estão atuando sem nenhum tipo de regulamentação.
É justamente isso que propõe o Projeto de Lei (PL) 2.338/2023, apresentado pelo presidente do Senado, Rodrigo Pacheco, nos últimos dias, matéria que consolida ao menos quatro outros projetos que envolvem o tema e já tramitam no Congresso Nacional.
VEJA MAIS:
Considerado de “extrema importância” por especialistas na área digital e tecnológica, o texto segue alguns fundamentos, cujos detalhes podem ser conferidos no infográfico. Na avaliação do advogado André Luiz Bastos, presidente da Comissão de Direito Digital da Ordem dos Advogados do Brasil Seção Pará (OAB-PA), este é um tema de “grande preocupação” em vários países.
“Com o avanço da tecnologia, a regulamentação visa a conter os excessos e que se faça o uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana”, diz.
“Como a IA é uma realidade e um caminho sem volta, essas garantias visam ao desenvolvimento ou a readequação das IAs existentes de forma que sejam utilizadas de uma maneira ética e responsável, protegendo esses direitos fundamentais”, complementa.
Alguns dos direitos fundamentais que devem ser protegidos, segundo o advogado, envolvem a privacidade de dados na coleta, tratamento e armazenamento dos dados, já prevista na legislação; a garantia de que não haja discriminação nem preconceito baseada em raça, etnia, cor, origem nacional ou territorial, sexo, orientação sexual, identidade de género, religião, ideologia, condição social, física ou mental; transparência, em que todos poderão questionar como as empresas estão interagindo com sistemas de AI; e responsabilização e reparação de danos.
O professor da Faculdade de Engenharia da Computação e Telecomunicações da Universidade Federal do Pará (UFPA) Marcos Serufo diz que já existiram várias regulamentações ao longo dos anos, e é natural que chegue a vez da IA, já que a tecnologia está em alta.
Por serem ferramentas de contato direto com os seres humanos, por meio de interações, conversas e bases de dados, “urge a necessidade de se conversar sobre o processo de regulamentação”, pontua. O professor lembra ainda que a televisão, o rádio e as operadoras de telefonia passaram pelo mesmo processo.
Entre as previsões do PL 2.338/2023 estão: pessoas não podem ser discriminadas por sistemas de IA; são proibidos o uso e a implementação de sistemas de IA que busquem induzir atitudes perigosas ou prejudiciais à saúde ou à segurança; e os sistemas não podem explorar vulnerabilidades de grupos específicos, como idosos e pessoas com deficiência.
“A discriminação é algo que vem sendo estudado há muito tempo pela comunidade científica. Os modelos de aprendizagem de máquinas, modelos de inteligência artificial, classificam previamente a partir de um banco de dados. Quando se deparam com uma nova situação, usam aquela classificação pretérita para tomar uma decisão", explica.
"O que se discute é se a detecção de determinado acontecimentos não pode induzir o banco de dados a adotar características que não são corretas sobre o gênero da pessoa, renda, tonalidade de pele, então deve-se tomar cuidado para o próprio modelo que está sendo proposto não se torne discriminatório", continua o especialista.
Por si só, Marcos acredita que as empresas não irão tomar para si esta responsabilidade, até porque monitorar e criar uma central de controle para isso, ou mudar um modelo já desenvolvido, pode gerar muitos gastos para as instituições. Daí a necessidade de uma regulamentação prevista em lei, criando uma padronização para a atividade.
VEJA MAIS:
“Quando não se tem uma regulamentação e os programadores não têm responsabilidades, há diversos riscos reais. O modelo é treinado para dar respostas classificadas. Se o humano não tem noção de abstrair que parte dali é incorreta pode tomar para si que as informações são reais e isso pode ser algo muito prejudicial. A saúde é um exemplo. É uma troca de informações muito natural, o usuário se sente confortável e pode não entender que muito do que sai dali não é real”, argumenta.
Sem a regulamentação, o advogado André Bastos diz que outros riscos podem ser causados de forma “muito concreta”, sendo alguns o desemprego por conta robotização de atividades, criação descontrolada de vírus digitais com ataques cibernéticos, centralização de poder nas mãos de poucas empresas, desenvolvimento de algoritmos que promovam discriminação e preconceitos contra determinados grupos e criação de armas autônomas, gerando resultados incontroláveis.
Para o presidente da Comissão de Direito Digital da OAB-PA, embora o Brasil tenha tido grandes avanços na legislação, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados, ainda é preciso caminhar muito. Atualizar as leis existentes seria uma opção.
“Com o avanço das tecnologias de uma forma acelerada, o direito vai ficando para trás e precisamos correr cada vez mais. Estamos no caminho certo com a regulamentação específica sobre o uso da IA. Espero que, ao final, esse projeto não tenha várias emendas que acabam deformando e piorando o projeto inicial”, comenta.
Já o professor da UFPA Marcos Serufo, o principal ponto neste momento, em que o projeto ainda pode receber emendas, é ouvir os agentes que estão envolvidos no processo: comunidade acadêmica, indústria e usuários. “O pontapé inicial é saber as dores de cada um em diversas áreas. Propostas sofrem alterações, e agora é o momento de ouvir para incluir”.
O “boom” de utilização de modelos de inteligência, segundo o especialista, não ocorre apenas no Brasil, mas no mundo todo. E, para ele, também é importante acompanhar onde isso está acontecendo e o Brasil se espelhar em países que já estão em fase de tramitação de projetos parecidos ou que já tenham esse tópico na legislação.
“É um processo de comprometer a empresa a ser responsável pelo conteúdo que ela gera, a internet não pode ser terra sem lei, até porque é o principal instrumento de difusão das informações, para muitos o único elemento para ter voz e fala, então precisamos pensar em todos os pontos do projeto e que cheguemos a uma proposta que garanta saúde nessa troca de informações”, finaliza.
Fundamentos
Pessoas afetadas por sistemas de inteligência artificial têm o direito de receber informações claras e adequadas quanto aos seguintes aspectos: