Receba por email.
Cadastre-se e receba grátis as principais notícias do Correio.
Carolina Cerqueira
Publicado em 4 de janeiro de 2025 às 02:00
A Inteligência Artificial não surgiu em 2022 e não se resume ao ChatGPT. Ela tem cerca de 70 anos. O que acontece nos últimos anos é a abertura e popularização do tipo de IA que permite a criação de conteúdos e é chamada de generativa. A tecnologia está ao alcance de qualquer leigo, à distância de um clique. A intensificação e diversificação do uso trazem à tona dúvidas sobre o que pode e o que não pode.
A União Europeia saiu na frente e, agora, o Brasil e outros países querem estabelecer uma regulamentação para a IA. Em dezembro de 2024, o texto baseado no Projeto de Lei 2.338/2023 foi aprovado no Senado e, em 2025, está nas mãos da Câmara de Deputados. O pesquisador baiano da área de tecnologia Lucas Reis (@lucas_s_reis), doutor em Comunicação e Cultura Contemporâneas pela Ufba, defende a importância de uma lei específica para a IA.
Para ele, é preciso definir quais aplicações podem ser criadas, o que elas podem fazer, quem deve fiscalizá-las e quem é dono do quê. “Se eu crio um conteúdo com o uso de uma ferramenta de IA, o direito autoral é meu ou da ferramenta? [...] Será que eu, enquanto cidadão comum, se postar um vídeo no Instagram, deveria receber por fornecer conteúdo para essa plataforma treinar sistemas de IA?”, questiona.
Os usos também passam pela esfera pública, seja na fiscalização de obras, no cadastro do Bolsa Família ou na regulação do sistema de saúde. A necessidade de treinamento de servidores públicos e atenção à proteção de dados aumenta o clamor pela regulamentação, que encontra obstáculos como a dificuldade de estabelecer regras locais para empresas globais e o temor do fim de algumas profissões.
“Em algum momento, alguém disse que, com a criação do e-mail, os Correios iam deixar de existir, mas você passou a ter as compras online e as entregas de encomendas por empresas de logística nunca foram tão importantes. Tem coisas que a gente não prevê de imediato, mas as ações geram inúmeras mudanças em cadeia”, pondera Lucas Reis.
Confira a entrevista:
A Inteligência Artificial não é algo novo. O que existe de novo, atualmente, então?
O fenômeno da IA não tem dois anos, ele tem 70 anos pelo menos, remonta à 1940, 1950. Nesse momento atual, a gente tem dois fatos novos. O primeiro é a popularização da inteligência artificial generativa, que permite que você crie conteúdos novos. O segundo é o amadurecimento. Hoje, você tem até o uso de aplicações de IA na saúde, na segurança pública, em serviços públicos.
O Brasil tem alguma regulamentação para a IA?
Especificamente sobre Inteligência Artificial, não. Você tem uma parte da Lei Geral de Proteção de Dados (LGPD) e uma parte da legislação de direito autoral que acabam englobando questões da IA. O Marco Civil da internet também acaba tangenciando.
E outros países?
O que tem inspirado esse projeto de lei no Brasil é a medida que a União Europeia adotou. É uma regulamentação de IA que tem uma estrutura para proteger os direitos das pessoas e fomentar o desenvolvimento econômico. A lógica dela é dividir as aplicações de IA em níveis de risco; algumas são vedadas e aquelas com risco mais alto têm algumas obrigações adicionais e são monitoradas por autoridades. Existe uma certa tendência nisso. A nossa LGPD é inspirada na GDPR [Regulamento Geral de Proteção de Dados] europeia. No entanto, é interessante notar que o Brasil conseguiu ser pioneiro com o Marco Civil da Internet. Eu falo isso para evitar o viralatismo de que o Brasil sempre segue os outros. Em direito digital, o Brasil está criando referências copiadas mundo afora.
Por que é importante regulamentar?
Existem dúvidas sobre o que pode e o que não pode. Essa zona cinzenta cria uma insegurança jurídica que é ruim, inclusive, para a exploração comercial. A legislação é necessária para criar uma segurança para que todo mundo, tanto cidadãos quanto empresas e governo, tenham um conjunto comum de regras.
Quais são os principais pontos do projeto de lei que está em tramitação no Brasil?
Me chamou atenção a seção sobre direito autoral, com uma preocupação muito grande com o direito autoral de input. As aplicações de IA são máquinas de processar dados, a gente fornece os dados e ela faz alguma coisa com eles. O projeto cria regras para que a pessoa que criou algo que alimentou a IA seja remunerada. Um exemplo é: se eu criei uma IA de imagens e treino ela fornecendo quadros de artistas como dados, os artistas desses quadros serão remunerados. Só senti falta de algo que regulamente o output, que é uma zona cinzenta hoje. Se eu crio um texto ou uma imagem com o uso de uma ferramenta de IA, o direito autoral é meu ou da ferramenta? Outra seção interessante é o uso da IA no setor público, com uma preocupação de usar a tecnologia para melhorar a gestão pública e o atendimento ao cidadão e uma preocupação em capacitar os agentes públicos para usar essa tecnologia. Uma terceira seção é voltada ao desenvolvimento econômico, pensando nas startups e nas micro e pequenas empresas que podem ter a flexibilização de algumas regras para que não fiquem impossibilitadas, devido ao custo, de inovarem com o uso de IA.
Tudo que a gente coloca na internet pode ser usado para treinar IAs. Quando falamos de direitos autorais, portanto, como a regulamentação seria aplicada?
Depois da aprovação definitiva do projeto, vai se discutir quanto se paga, quem recolhe, quem repassa, quem tem direito a receber. Será que eu, enquanto cidadão comum, se postar um vídeo no Instagram deveria receber por fornecer conteúdo para essa plataforma treinar sistemas de IA? Mas são várias discussões nesse sentido, como o consumo de conteúdos jornalísticos por essas ferramentas, que tem um projeto de lei específico que ainda não foi votado. Grosso modo, se o projeto de lei de IA passar, a OpenAI (responsável pelo ChatGTP) pagaria ao CORREIO por consumir suas matérias e usá-las em seu sistema, mas o Google não pagaria por exibir esse conteúdo no resultado de busca.
Como aplicar regras locais quando falamos de empresas de atuação global?
Esse é um desafio, mas a gente pode olhar para o que aconteceu com a legislação de privacidade. Em 2024, houve um momento em que a ANPD [Agência Nacional de Proteção de Dados] proibiu que a Meta usasse dados de brasileiros para alimentar sua inteligência artificial por entender que os cuidados relacionados à privacidade não estavam sendo tomados. Se a Meta descumprisse essa regra, deixaria de ficar acessível no Brasil, como aconteceu com o X [antigo Twitter] por descumprir uma outra legislação. Boa parte dessas empresas são obrigadas a ter um representante legal no país e é essa pessoa que vai responder na Justiça.
Como a IA pode ser usada na gestão pública?
Você tem desde o uso para acelerar um processo de atendimento ao cidadão ou aprovação de um cadastro no Bolsa Família até o uso para a regulação no sistema de saúde e fiscalização de uma obra pública. Pense que todo cidadão já teve dificuldade porque alguém precisava só olhar um documento e dizer que ele estava válido. Esse é o trabalho de pensar e que conseguiríamos passar para uma IA de reconhecimento de imagem. Nisso, ganha-se em velocidade, escala e custo. Mas claro que é preciso existir um humano responsável por aquela ação a quem se possa recorrer em caso de falha da tecnologia ou outra necessidade.
Para além do que entendemos comum e leigamente sobre IA, que tende para discussões sobre deepfake e ChatGPT, como essa tecnologia pode ser usada?
Mas na área de marketing, por exemplo, você tem usos que já existiam há mais tempo, ligados a dados. Você já usava a IA analítica para prever pessoas que tinham mais chances de tornarem-se clientes da sua empresa. Com a IA generativa, a grande sacada é a possibilidade de criar conteúdo para fazer as experiências dos clientes serem personalizadas. Mas existem questões complicadas. Um conteúdo criado é da empresa ou da ferramenta que o fez? Além disso, se a ferramenta errar e disser para o cliente que uma peça de ouro custa R$20, a empresa, pelo direito do consumidor, tem que vender por esse preço.
É plausível ter medo de que a IA acabe com determinadas profissões?
Se eu precisava de um operário para apertar um parafuso e uma máquina passou a fazer isso, esse operário não foi mais necessário. Mas, num prazo maior, a cadeia produtiva se reorganizou. Se você aumenta a produtividade, você passa a ter novas tarefas. Em algum momento, alguém disse que, com a criação do e-mail, os Correios iam deixar de existir, mas você passou a ter as compras online e as entregas de encomendas por empresas de logística nunca foram tão importantes. Tem coisas que a gente não prevê de imediato, mas as ações geram inúmeras mudanças em cadeia. Costumo dizer que a gente não sabe o que acontece depois do que acontece.