Tecnologia

Marco Legal da IA: especialistas avaliam riscos ao mercado

Marco Legal da IA

Monica Miglio Pedrosa

O Brasil está no caminho de aprovar seu primeiro Marco Legal da Inteligência Artificial, com o PL 2.338/2023 aprovado pelo Senado em dezembro de 2024 e atualmente em análise na Câmara dos Deputados. Embora a regulação seja vista como necessária, especialistas alertam que o debate em torno do projeto avançou sem a definição de uma estratégia nacional clara para a inteligência artificial e o desenvolvimento digital do país.

“A IA é uma das tecnologias, mas é apenas parte de uma visão estratégica mais ampla do desenvolvimento digital do país que ainda não está definida”, afirma Affonso Nina, Presidente Executivo da Brasscom (Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais).

Essa visão mais abrangente está no centro do Plano Brasil Digital 30+, liderado pela Brasscom com o apoio da ABES (Associação Brasileira das Empresas de Software), da FEBRABAN (Federação Brasileira de Bancos) e da FIESP (Federação das Indústrias do Estado de São Paulo). A proposta defende um planejamento de longo prazo para o desenvolvimento digital do país nas próximas décadas, integrando tecnologias estratégicas a políticas públicas voltadas à expansão da infraestrutura digital (data centers, energia e conectividade); à formação e capacitação de talentos em tecnologia; ao fortalecimento da pesquisa e da inovação; à inclusão digital e social; e à criação de um ambiente de negócios competitivo.

A crítica à ausência de uma estratégia nacional clara também aparece na avaliação de Geber Ramalho, Conselheiro do CESAR e professor da disciplina de Ética e Inteligência Artificial da Pós-Graduação da UFPE (Universidade Federal de Pernambuco). “Não tenho nenhuma dúvida de que é preciso regular a IA, devido aos potenciais riscos de uso da tecnologia. Mas antes disso é preciso ter uma estratégia para o país. Queremos ser líderes globais em IA? Usar a IA para aumentar a produtividade nas empresas? Resolver os problemas da população? Não temos isso claramente definido”, afirma.

Essa fragilidade estratégica também é apontada em uma avaliação recente da Comissão de Ciência e Tecnologia (CCT) do Senado, que identificou falhas estruturais na Política Pública Nacional de Inteligência Artificial. Entre os principais problemas estão a ausência de metas mensuráveis, indicadores de desempenho e linhas de base claras na Estratégia Brasileira de IA (EBIA) e no Plano Brasileiro de IA (PBIA) para o período de 2024 a 2028, a falta de uma governança unificada com coordenação interministerial permanente, fragilidades na gestão de dados e na interoperabilidade entre sistemas públicos, além de limitações na capacidade organizacional do Estado e déficits de sustentabilidade financeira.

Marco Stefanini, fundador e CEO global do Grupo Stefanini, defende que o país busque um equilíbrio entre regulamentação e estímulo à inovação. “A tendência do modelo brasileiro é seguir o europeu, que é muito restritivo. As regras precisam ser claras, mas não excessivamente restritivas, especialmente em períodos de polarização política, que podem levar a vieses que fogem à racionalidade”, alerta.

Aspas de Affonso Nina, Presidente Executivo da Brasscom

Texto redigido sem especialistas em TI

Além da falta de alinhamento com uma estratégia nacional mais ampla, especialistas apontam que o PL nasceu a partir de uma iniciativa predominantemente jurídica, com participação limitada de profissionais de tecnologia, o que resultou em erros conceituais na redação do projeto. Affonso Nina cita, por exemplo, o uso do termo “agente” para se referir a fornecedores e operadores de sistema de IA, uma escolha que conflita com o vocabulário técnico da área, já que agentes de IA são, hoje, sistemas autônomos utilizados em aplicações específicas.

“Não dá para formular uma regulação sobre tecnologia sem um maior envolvimento de profissionais da área”, reforça Geber Ramalho, ao apontar outras lacunas conceituais do texto, como a ausência de definições claras para termos básicos como “usuário”, o que revela desconhecimento do ciclo de desenvolvimento e uso da tecnologia.

Inspirado no AI Act europeu, o PL adota um modelo regulatório baseado na classificação de riscos, dividindo os sistemas de inteligência artificial em categorias como risco excessivo, alto risco e demais aplicações, com diferentes níveis de obrigações, governança e supervisão.

Na categoria de risco excessivo, são proibidos sistemas de IA que explorem vulnerabilidades humanas para causar danos, promovam manipulação comportamental abusiva, realizem pontuação social pelo poder público, permitam armas autônomas e utilizem identificação biométrica em tempo real em espaços públicos, salvo exceções rigorosamente delimitadas, como em situações de flagrante delito ou em investigações criminais.

Já os sistemas classificados como de alto risco incluem aqueles usados em contextos sensíveis, como recrutamento e gestão de pessoas; acesso, avaliação e monitoramento em educação; saúde e diagnósticos médicos; justiça, segurança pública e imigração; serviços públicos essenciais; infraestruturas críticas; além da identificação biométrica e reconhecimento de emoções. Para esses casos, o PL impõe obrigações reforçadas de governança, transparência e controle, concentrando parte relevante das críticas ao texto.

Aspas de Geber Ramalho, Conselheiro do CESAR e Professor da UFPE

Modelo X Aplicação

Um dos pontos considerados positivos na evolução do PL é o reconhecimento de que setores já regulados devem continuar sob a liderança de suas respectivas autoridades setoriais. Para Nina, da Brasscom, a preocupação está nos setores que não contam com um regulador específico e que podem acabar sendo supervisionados por instâncias sem familiaridade com suas particularidades.

Nesses casos, defende, a lei deveria se limitar a estabelecer diretrizes gerais, deixando decisões mais sensíveis para processos posteriores, baseados em debate técnico, transparência, consulta pública e envolvimento de especialistas. “Senão você corre o risco de ter uma agência reguladora emitindo normas sobre um setor que ela não conhece”, alerta.

Outro ponto crítico está na falta de diferenciação entre o modelo de IA e suas aplicações concretas. “Você pode ter uma aplicação usada em uma área considerada de alto risco, mas que em si não gera risco nenhum”, afirma Nina. Ao não distinguir essas camadas, o texto acaba submetendo usos de baixo impacto ao mesmo escrutínio legal de aplicações sensíveis, criando insegurança jurídica e custos desproporcionais.

Para a Brasscom, a gestão de riscos deveria considerar a combinação entre tipo de modelo, tipo de aplicação e contexto de uso, com tratamento específico para a IA generativa, cujos impactos potenciais diferem significativamente do restante do ecossistema.

Essa leitura é compartilhada por Geber Ramalho, que defende uma lei mais enxuta e principialista, capaz de estabelecer categorias amplas e delegar às autoridades setoriais a definição concreta do que representa risco em cada área, por meio de normas infralegais mais flexíveis e atualizáveis, especialmente diante da velocidade de evolução da tecnologia.

Aspas de Marco Stefanini, Founder e CEO Global do Grupo Stefanini

Direitos Autorais

Embora reconheça que a proteção à criação intelectual seja legítima, Geber avalia que o debate sobre direitos autorais no contexto da inteligência artificial está longe de ser trivial. Ele chama atenção para os dilemas práticos e concorrenciais envolvidos na tentativa de restringir o uso de conteúdos no treinamento de modelos de IA, sobretudo em um cenário global em que outros países e empresas já avançaram utilizando grandes volumes de dados disponíveis, inclusive os nacionais.

Para Nina, além de o PL não detalhar mecanismos capazes de identificar, de forma prática, como conteúdos protegidos por direitos autorais foram utilizados e como estes deveriam ser remunerados, o tema já é tratado por uma legislação específica, o que torna questionável sua incorporação ao Marco Legal da Inteligência Artificial. “Pagar pelo acesso à informação quando não se sabe o que será gerado com isso não parece fazer sentido”, afirma, destacando que, da forma como está, o texto tende a ampliar a insegurança jurídica.

Impactos no mercado

Do ponto de vista das empresas de tecnologia, um dos principais pontos de preocupação está na ampliação do risco jurídico para desenvolvedores de software e fornecedores de soluções baseadas em inteligência artificial. Para Geber Ramalho, o PL tende a tratar sistemas de IA como tecnologias consolidadas, quando, na prática, elas ainda operam sob incertezas e probabilidades.

Ao permitir que prejuízos ou decisões equivocadas do sistema sejam automaticamente atribuídos ao desenvolvedor, a proposta ignora o papel humano na tomada de decisão e cria um ambiente de responsabilização excessiva. “A IA ainda não é uma tecnologia consolidada, é uma ferramenta de apoio à decisão humana. Da forma que está hoje, o PL tende a punir o desenvolvedor do software pelo erro, tratando-o como responsabilidade objetiva”, alerta, citando como exemplo sistemas de apoio ao diagnóstico médico, nos quais a validação final deveria caber a um profissional humano.

Esse cenário pode ter efeitos diretos sobre investimentos, competitividade e a localização de atividades de desenvolvimento. Affonso Nina afirma que, sem ajustes, o PL pode criar gargalos capazes de afetar decisões estratégicas de negócios. Ele relata o caso de uma startup nacional de educação que, ao analisar o texto, concluiu que não conseguiria operar no Brasil nas condições propostas, assim como de multinacionais que aguardam maior clareza regulatória antes de decidir pela instalação de centros de desenvolvimento de IA no país.

Tanto a Brasscom como o CESAR e demais entidades têm levado contribuições e recomendações ao deputado Aguinaldo Ribeiro (PP-PB), municiando o relator do projeto na Câmara dos Deputados com informações técnicas e propostas de aperfeiçoamento do texto. A expectativa é que o debate avance para uma redação mais equilibrada, capaz de proteger direitos fundamentais sem comprometer a inovação, a competitividade e a atração de investimentos para o país.

O desfecho desse processo será determinante para o posicionamento do Brasil na economia digital global. “Estamos em um ponto em que a IA é um divisor de águas. Ela pode acelerar o nosso desenvolvimento, diminuindo o gap entre o Brasil e os países desenvolvidos, ou aumentar esse fosso”, conclui Stefanini.

  • Aumentar texto Aumentar
  • Diminuir texto Diminuir
  • Compartilhar Compartilhar