UE começa a fiscalizar AI Act

UE começa a fiscalizar o AI Act: multas podem chegar a 3% do faturamento

Hoje acordei com uma notícia que não dá pra ignorar: a UE começa a fiscalizar oficialmente o AI Act: primeiras multas podem chegar a 3% do faturamento global. Não é mais papo de regulamentação distante — agora é pra valer. Se sua empresa tem qualquer relação com o mercado europeu, mesmo que seja só um site acessível de lá, já está no radar. As regras mudaram de vez e, sinceramente, ninguém quer ser pego de surpresa. O AI Act deixou de ser teoria e virou prática, e as consequências são sérias para quem não se adaptar rápido.

Table of Contents

Principais Pontos

  • A fiscalização do AI Act já começou oficialmente na União Europeia e afeta empresas de todo o mundo, inclusive do Brasil.
  • Empresas que não estiverem em conformidade podem receber multas de até 3% do faturamento global anual.
  • Mesmo empresas sem sede na Europa entram na mira se oferecem serviços ou produtos acessíveis no bloco.
  • O AI Act exige identificação, classificação e documentação dos sistemas de IA, além de transparência e medidas de segurança.
  • Empresas precisam agir rápido para se adaptar às novas regras e evitar penalidades pesadas.

Fiscalização Oficial da UE: AI Act Entra em Vigor

À medida que a fiscalização do AI Act na União Europeia realmente começa, vejo muita expectativa e dúvida no ar. Acredite, essa nova fase não mexe apenas com gigantes da tecnologia. Ela atinge qualquer empresa que explore inteligência artificial dentro do bloco europeu, inclusive aquelas de fora, como muitas brasileiras. O que está no centro de tudo é o compromisso com responsabilidade e transparência, já que as penalidades para empresas de IA na UE são uma preocupação constante.

Alterações Recentes no Cenário Regulatório Europeu

Desde o anúncio do AI Act, ficou claro que a Europa não vai mais aceitar desenvolvimentos de IA sem regras claras. Agora, quem opera aqui vai precisar se adaptar ao novo padrão regulatório, que busca equilibrar inovação com proteção de direitos. O AI Act começou a ser implementado por etapas, com medidas emergenciais já valendo para sistemas considerados de alto risco e para modelos gerais como o ChatGPT. Uma tabela do cronograma de expectativa:

Medida Início da Fiscalização
Modelos Gerais de IA Agosto de 2025
Sistemas de Alto Risco Novembro de 2025
Outras Estapas A partir de 2026

Essas datas podem variar conforme atrasos na definição das regras, mas o cenário já mudou drasticamente. A pressão para adaptar a tecnologia ao novo código de conduta divide opiniões: algumas empresas veem a necessidade de adiar certas regras, enquanto outras defendem uma implantação imediata.

Sinto que estamos diante de um novo marco — quem não se adequar, além dos riscos regulatórios, pode perder espaço em mercados estratégicos.

Impacto Imediato para Empresas Globais e Brasileiras

Empresas globais, inclusive as brasileiras, sentem impacto imediato das regras do AI Act e multas na UE. Esse efeito não se limita à fronteira europeia, já que o regulamento considera o local onde o serviço é oferecido. Por isso, basta atender um cliente europeu para a lei valer para mim, ou para qualquer empresa brasileira. Os principais reflexos que percebo:

  • Reorganização de equipes dedicadas a compliance/regulação
  • Reforço de documentação sobre treinamento de sistemas
  • Adaptação a limites em dados sensíveis e monitoramento ativo de produtos
  • Revisão de contratos, principalmente envolvendo exportação de IA

Além disso, a obrigatoriedade de transparência na documentação de IA e o compromisso público com mitigação de riscos aumentaram a pressão para revisão de políticas internas. Não basta simplesmente “estar em conformidade no papel”.

Responsabilidades das Organizações que Operam na União Europeia

As responsabilidades para quem atua ou oferece serviços de IA aqui mudaram bastante. Preciso destacar três pontos centrais:

  1. Registro detalhado de sistemas e dados utilizados, especialmente para IA de alto risco
  2. Implementação de medidas técnicas para demonstrar mitigação de riscos — simplesmente alegar boas intenções não se sustenta mais
  3. Proatividade na comunicação de falhas e vulnerabilidades, ainda que não tenham causado danos

A fiscalização se tornou constante, então atualizar processos internos e treinar equipes virou rotina. Ignorar essa realidade pode resultar em sanções severas, lembrando que as penalidades para empresas de IA na UE chegam a até 3% do faturamento global em alguns casos. Enquanto o debate segue fervendo, o mercado já entende que o impacto das novas leis de IA na Europa é profundo – ninguém quer virar exemplo negativo por falta de adequação.

Para ver essa transformação na prática, as empresas estão empregando mais governança, assim como com a LGPD no Brasil. A tendência é que outros mercados, inclusive aqui na América Latina, caminhem para adotar princípios bastante similares (inteligência artificial no setor empresarial brasileiro).

Multas Potenciais e Critérios de Aplicação das Sanções

 

Multas-Potenciais UE começa a fiscalizar o AI Act: multas podem chegar a 3% do faturamento

Conversando com pessoas que trabalham em empresas de tecnologia, percebo que o tema de sanções do AI Act deixa muita gente inquieta. Não é para menos: as regras chegam pesadas e podem, de verdade, mexer no caixa das organizações. As penalidades atingem empresas grandes e pequenas, desenvolvedoras de IA e até quem só utiliza esses sistemas. Tudo depende do grau de impacto e do descumprimento das normas estabelecidas pelo AI Act, que já está movimentando o mercado com sua aprovação recente.

Cálculo das Multas de até 3% do Faturamento Global

O cálculo das sanções financeiras vai direto ao ponto: a multa pode chegar a 3% do faturamento anual global da empresa. Ou seja, não importa só o quanto a companhia movimenta na Europa, mas sim o volume total de receita mundial. Isso coloca todos em alerta, principalmente quem movimenta cifras elevadas em mais de um continente. O valor final depende da gravidade da infração e da avaliação da autoridade fiscalizadora.

Tabela simplificada:

Tipo de Infração Valor Máximo da Multa
Falhas graves Até 3% do faturamento global
Descumprimento leve Proporcional, mas menor

A avaliação envolve fatores como reincidência, dano causado e até medidas adotadas para tentar corrigir o erro.

Multas Específicas para Desenvolvedores de Modelos Avançados

Para empresas que desenvolvem modelos avançados de IA, a situação é diferente. O teto de penalidade pode ser mais alto: alguns documentos apontam valores que chegam a 7% do faturamento, especialmente quando há recorrência de falhas graves envolvendo sistemas de risco alto. Mas, de maneira geral, para modelos avançados usados em larga escala – como plataformas de linguagem ou sistemas usados em decisões críticas –, o processo de apuração é bem mais rigoroso e transparente.

Lista dos principais pontos considerados:

  • Existência de riscos altos à segurança ou privacidade
  • Falta de transparência sobre o uso do sistema
  • Reincidência em descumprimentos
  • Falhas em testes e monitoramento contínuo

Nos bastidores, o que ouço é que os desenvolvedores de modelos sofisticados encaram uma pressão dupla: entregar inovação e provar que cumprem cada exigência.

Diferença Entre Multas para Grandes e Pequenas Empresas

Um dos debates mais comuns sobre o AI Act é justamente o impacto sobre pequenas empresas. Apesar de os limites percentuais serem iguais, as penalidades absolutas podem quebrar uma PME, enquanto para um gigante de tecnologia acabam sendo só mais uma linha no balanço. Por isso, as autoridades prometem alguma proporcionalidade – analisando a capacidade financeira do autuado e seu grau de participação no mercado.

Principais diferenças práticas:

  • Empresas pequenas podem receber orientação antes de multa pesada.
  • Pode haver flexibilização para infrações mais leves, olhando para o porte e setor.
  • Grandes empresas dificilmente escapam de punições logo na primeira infração se houver risco coletivo.

Esse equilíbrio entre inovação e proteção é tema constante nas discussões sobre a fiscalização e sobre como o sistema europeu tenta não sufocar quem está entrando agora nesse mercado competitivo. E para quem opera também em mercados fora da UE, as regras daqui acabam influenciando o mundo inteiro, puxando um efeito cascata no setor de regulamentação de IA e direitos digitais.

Criterios-de-Aplicacao-das-Sancoes UE começa a fiscalizar o AI Act: multas podem chegar a 3% do faturamento

Quem já acompanha as discussões sobre inteligência artificial na União Europeia sabe o tamanho da mudança trazida pelo AI Act. As regras não chegam simplesmente para regulamentar as tecnologias existentes; elas querem mudar, de verdade, o modo como empresas se relacionam com IA. Eu vejo muitos detalhes importantes aqui, então prefiro separar nos pontos que realmente fazem diferença no dia a dia corporativo.

Identificação e Classificação dos Sistemas de IA

A primeira etapa envolve identificar se aquele sistema utilizado pode ser considerado um sistema de IA conforme as definições da legislação europeia. Depois disso, é preciso classificar o risco. Sistemas considerados de alto risco vão precisar de controles mais rigorosos. Existem categorias claras, como:

  • Risco inadmissível: casos de proibição total, geralmente ligados à manipulação de comportamento ou vigilância indiscriminada.
  • Risco alto: sistemas que envolvem avaliação de pessoas, infraestrutura crítica, processos de contratação etc.
  • Risco limitado ou mínimo: chatbots simples, sistemas de recomendação comuns, entre outros.

Esta classificação é o ponto de partida para qualquer estratégia de compliance. Não dá para pular essa etapa e, muitas vezes, requer revisar todo o portfólio de soluções da empresa. Para ver uma visão geral das bases do AI Act, sugiro olhar algumas definições na governança de inteligência artificial da União Europeia.

Documentação e Transparência Obrigatórias

O AI Act exige, sim, muita documentação. Eu mesmo não sou fã de burocracia, mas aqui ela tem um sentido prático. São requisitos como:

  • Registrar detalhes sobre o funcionamento do algoritmo e os dados usados no treinamento;
  • Explicar, de forma clara, como as decisões são tomadas pelo sistema;
  • Fornecer informações técnicas a autoridades e, em alguns casos, usuários finais.
Requisito Quem deve cumprir
Registro de dados de treino Empresas de alto risco
Relatórios de transparência Todos os fornecedores
Explicações de decisões Sistemas críticos

Se a empresa não prepara uma documentação completa, a fiscalização dificilmente vai ser favorável. Transparência vira, então, obrigação legal, não mais diferencial.

Medidas de Mitigação de Riscos e Segurança

Aqui é onde a teoria vira prática. O AI Act força empresas a adotarem processos para identificar riscos antes do sistema entrar em operação e monitorar constantemente riscos novos. Isso inclui:

  • Simular cenários de mau funcionamento ou uso indevido;
  • Implementar controles para mitigar impactos negativos;
  • Atualizar modelos de segurança, ajustando sempre as políticas de privacidade e anti-discriminação.

Embora pareça pesado, esse controle pode antecipar problemas e evitar multas, além de ajudar a inovação responsável.

Na prática, quando olho para essas regras, percebo um movimento claro: colocar a responsabilidade na mão de quem desenvolve, comercializa ou usa IA. Isso vale tanto para empresas europeias quanto para organizações de fora que atuam por lá. Apesar disso tudo, existem oportunidades para criar vantagem competitiva se a empresa agir de forma proativa e transparente — especialmente porque IA já está revolucionando negócios e processos atuais, como ressalta a recente transformação trazida pela inteligência artificial.

Desafios e Críticas ao Código de Conduta Europeu

Resistência das Big Techs e Empresas Europeias

Quando olho para o cenário atual, noto que as big techs receberam o código de conduta europeu com desconforto. Não foi surpresa ver algumas empresas globais, como a Meta, se recusando a aderir ao código proposto para a Lei de IA, alegando que as exigências seriam exageradas e poderiam até limitar a inovação. Por outro lado, gigantes como o Google concordaram em assinar, mas deixaram claro que veem riscos e incertezas para o setor no futuro. O ponto de maior atrito costuma ser o temor de que novas regras acabem impactando tanto as empresas americanas quanto europeias, gerando uma competição desigual e custos de adaptação elevados.

  • Empresas argumentam que as regras criam incertezas jurídicas.
  • Alguns setores consideram os requisitos técnicos difíceis de cumprir a curto prazo.
  • Existe pressão para adiar a implementação das diretrizes em prol de maior diálogo e revisão do texto final.

Se quiser entender melhor essas tensões, as ações recentes entre as techs e União Europeia foram destaque em Google concordou em assinar o código.

Pontos Polêmicos: Testes Externos e Direitos Autorais

O que mais tem provocado debates é a inclusão de medidas que obrigam os desenvolvedores a permitir auditorias externas independentes e a garantir proteção rigorosa de direitos autorais. Aqui, nem todo mundo concorda. Muitas empresas temem que abrir seus sistemas para avaliações possa expor segredos industriais ou métodos proprietários, além de aumentar custos com certificações e relatórios detalhados.

Outro fator é a exigência de transparência sobre dados e fontes para treinar modelos de IA, o que chega perto de abrir a “caixa preta” dessas tecnologias. Para muita gente do setor, isso pega pesado. Eles alegam que tais exigências vão além do texto original do AI Act, criando obrigações extras e até confusas.

A cada novo detalhamento ou regra adicional, a sensação que tenho é que aumenta o receio de bloqueios operacionais ou de obstáculos para empresas que querem inovar com IA de forma segura na Europa.

Atrasos na Aprovação e Implementação das Diretrizes

Outra crítica recorrente recai sobre os sucessivos atrasos na entrega de padrões e guias práticos. Era esperado que o código de conduta estivesse pronto meses atrás, mas divergências entre empresas de tecnologia, reguladores e demais atores vêm prolongando a discussão. A ausência desses parâmetros traz ansiedade, principalmente para quem precisa se planejar. A incerteza faz com que as empresas adiem tomadas de decisão importantes, aguardando clareza regulatória para poder investir.

Com base nas últimas discussões, os principais desafios em relação aos prazos são:

Desafio Consequência Direta
Atraso na definição de padrões Dificuldade para as empresas se prepararem
Falta de coordenação entre países Fragmentação do ambiente de negócios
Requisitos redefinidos à última hora Insegurança para investidores

Mudanças como essas raramente passam despercebidas. Se tiver interesse nos fundamentos da regulação, os detalhes do quadro jurídico do AI Act podem ser encontrados em Regulamento de Inteligência Artificial.

Repercussões Globais: Reflexos da Regulação Europeia em Outros Mercados

Oportunidades-de-Adaptacao UE começa a fiscalizar o AI Act: multas podem chegar a 3% do faturamento

Muita gente no Brasil está de olho nas novas regras da União Europeia para inteligência artificial. Eu mesmo fico pensando como essas leis acabam chegando até aqui, mesmo a gente estando tão longe. Não é só questão de geografia – é sobre como as empresas brasileiras que exportam para a Europa, ou mesmo usam ferramentas desenvolvidas lá, vão precisar prestar atenção nessas regras para evitar multas inesperadas, já que as regras do AI Act têm peso mundial.

Meu receio maior não é nem só com as regras em si, mas com o impacto automático em nosso cotidiano de negócios, já que tudo vai precisar se adaptar, desde contratos a fluxos de dados.

Essas adaptações vão exigir:

  • Mapeamento das soluções de IA utilizadas e sua origem
  • Revisão de contratos com parceiros europeus
  • Ajuste de políticas internas para cumprir exigências de transparência e risco

Quem já está por dentro das normas da LGPD sente um pouco menos o baque, pois algumas bases são parecidas. Ainda assim, compliance agora exige um olhar global. Para entender as exigências do regulamento europeu e suas consequências para o Brasil, recomendo ver como o AI Act criou um modelo internacional de referência para IA no contexto do mercado global.

Não tem jeito: quando a União Europeia solta uma regra grande assim, ela serve de espelho para outros lugares. Eu percebo que projetos como o PL 2.338/23 no Brasil já foram inspirados pelo que acontece lá fora. O padrão europeu pressiona as autoridades daqui a seguir o ritmo, tentando equilibrar inovação e proteção de direitos.

Se a União Europeia define critérios para avaliar riscos ou obriga testes transparentes, logo vemos propostas parecidas em outros países, mostrando que a UE realmente dita tendência. O mais curioso é que até mercados como a China vão observando, adaptando suas políticas para não ficarem para trás – como se pode notar em outras grandes economias globais onde a expansão da IA acelera transformações.

O cenário ficou mais puxado porque, agora, existem regras de todos os lados e muita gente defende que chegou a hora de unificar pelo menos alguns critérios. Para quem trabalha com IA, fica difícil acompanhar cada conjunto de normas, então a busca por convergência é um pedido constante do setor privado.

Estou vendo movimentos, seja em fóruns de tecnologia, seja em reuniões entre países, discutindo padrões mínimos de ética, segurança e compartilhamento de informações. Dessa forma, empresas não ficam presas a uma espécie de “puzzle regulatório” cada vez que entram num novo mercado. O mais importante: quanto maior a convergência, melhor o ambiente para inovação, segurança jurídica e proteção dos dados do usuário.

Exemplo de normativas com influência europeia Situação Atual
LGPD (Brasil) Inspirada no GDPR
PL 2.338/23 (Brasil) Inspirado no AI Act
Regulamento chinês sobre IA Adotando pontos do AI Act
Novas leis canadenses e japonesas Seguimento às normas da UE

Se quiser entender mais sobre como a aplicação do AI Act da UE pode afetar negócios além das fronteiras, principalmente quando sistemas de IA são criados fora do país, recomendo olhar toda a discussão sobre padrões globais e exigências extraterritoriais.

Limitações e Dilemas da Fiscalização de Inteligência Artificial

Ao acompanhar a regulamentação de inteligência artificial europeia, começo a perceber o tamanho dos obstáculos quando o assunto é fiscalizar essa tecnologia. A fiscalização, embora muito discutida, não é algo simples — lidamos com sistemas complexos, múltiplos atores e mecanismos tradicionais que muitas vezes não dão conta do recado.

Desafios Técnicos das LLMs e Sistemas ‘Caixa-Preta’

Quando esbarro em uma LLM (como aqueles modelos generativos que respondem perguntas), a sensação é de encarar uma caixa-preta. Ou seja, nem sempre dá pra saber por que o algoritmo fez determinada escolha. Essa falta de previsibilidade torna quase impossível aplicar métodos clássicos de auditoria e responsabilização.

  • Resultados podem variar a cada execução
  • Não há um caminho claro do dado de entrada ao resultado
  • Rastrear falhas se torna uma tarefa quase impossível

Na prática, o que vejo é uma enorme dificuldade: como garantir que um sistema desses está realmente seguro e em conformidade com as normas?

Fragmentação e Policentricidade dos Atores Reguladores

Nem sempre um único órgão ou país cuida da regulamentação. O cenário europeu tem múltiplos atores — órgãos nacionais, agências independentes e instituições supranacionais. Isso gera o que se chama de policentricidade. O controle fica disperso, o que pode dificultar decisões rápidas ou respostas coordenadas.

Problema Consequência
Muitos órgãos reguladores Processos mais longos e confusos
Regulamentos sobrepostos Insegurança para empresas
Falta de padronização Diferenças de interpretação

Já conversei com colegas que atuam fora da UE e também sentem na pele essa falta de integração. Às vezes, quem está inovando precisa lidar com divergências em vários países, gerando ainda mais debate sobre quem tem a palavra final.

Necessidade de Instrumentos Reguladores Flexíveis

Outra questão é saber se as regras atuais realmente acompanham a velocidade tecnológica. O avanço da IA, como as grandes LLMs, desafia normas escritas anos atrás. Nesse cenário, apostar só em regras detalhadas e estáticas não faz mais sentido. O debate aponta para modelos mais flexíveis — como o “cumprir ou explicar”, muito usado na governança corporativa.

  • Facilita adaptações rápidas a novos riscos
  • Reduz travamentos por conta de regras antigas
  • Incentiva inovação, respeitando direitos fundamentais

Quando penso nas limitações, vejo que regulamentação de inteligência artificial europeia precisa se adaptar frequentemente. Um dos maiores dilemas é manter a proteção à privacidade e segurança sem sufocar inovação — principalmente agora, com proibições específicas em prática na UE desde fevereiro de 2025 (avanço histórico na regulação tecnológica).

Não vejo respostas prontas para esses desafios, mas percebo que, quanto mais diálogo e ajustes acontecerem, maior a chance de termos regras coerentes e aplicáveis ao longo do tempo.

Oportunidades de Adaptação e Compliance para as Empresas

A cada conversa com colegas do setor, percebo como a adequação ao AI Act é vista com uma certa ansiedade, mas também como janela para repensar processos e mitigar riscos. Com tantas regras novas, acabo descobrindo ajustes que podem se transformar em oportunidades para prevenir problemas e ganhar mais confiança de clientes. O segredo é agir logo, manter as rotinas de análise de riscos, e não esperar por notificações das autoridades europeias.

Checklist de Adequação ao AI Act

Esses dias, revisando as exigências para minha empresa, me organizei com um roteiro prático que pode servir de ponto de partida:

  • Mapear todos os sistemas de IA em uso e suas finalidades
  • Revisar políticas internas à luz do AI Act
  • Treinar equipes em práticas obrigatórias de transparência e segurança
  • Identificar fluxos de dados sensíveis e corrigir falhas eventuais
  • Implantar canais de comunicação com parceiros e clientes para consultas rápidas

Mesmo para empresas de saúde e de outros setores que usam inteligência artificial, como as startups focadas em compliance, adotar essa rotina facilita o monitoramento de conformidade.

Paralelos com a LGPD e Boas Práticas de Governança

Quando penso em como o AI Act dialoga com o que já conheço da LGPD, fica claro que muitos passos se sobrepõem, principalmente no que diz respeito à transparência e à prestação de contas. A experiência com os requisitos da LGPD serve quase como uma prévia da jornada de adaptação ao AI Act, reforçando essas práticas:

  • Documentação rigorosa dos fluxos de dados
  • Validação frequente dos critérios de segurança
  • Atenção à minimização de coleta de informações

Tudo isso leva a uma cultura organizacional que valoriza governança e responsabilidade.

A adaptação às novas exigências é um processo contínuo, não só uma reação emergencial – investir em governança significa menos dor de cabeça no futuro, criando até uma vantagem competitiva para quem se antecipa.

Benefícios de Concordar com o Código de Conduta

Eu já vi empresas colherem ganhos — na prática — ao engajar no código de conduta europeu para IA, mesmo sob pressão. A transparência regulatória melhora a relação com clientes e investidores, além de facilitar investimentos no exterior. Entre os principais benefícios, eu destacaria:

  • Redução de riscos em processos sancionatórios
  • Maior atratividade para parcerias internacionais
  • Melhor reputação no mercado global

O caminho para compliance com inteligência artificial não é simples, mas, antecipando demandas, consigo transformar cada ajuste em mais uma chance de crescer e proteger o negócio, especialmente quando comparo estratégias com o que empresas líderes já estão fazendo, como mostra a integração da IA em vários departamentos. Evoluir junto com a regulação evita retrabalho e prepara a empresa para qualquer novo requisito.

Hoje, as empresas precisam estar preparadas para mudar rápido e seguir as regras do mercado. Se você quer entender como sua empresa pode aproveitar essas oportunidades e ficar por dentro das novidades, visite nosso site para saber mais! Seu futuro começa com conhecimento simples e direto.

Conclusão

Depois de acompanhar toda essa movimentação em torno do AI Act, confesso que fiquei com a sensação de que estamos entrando em uma nova era para quem trabalha com tecnologia. Não é mais só papo de especialistas ou de gente que gosta de discutir lei – agora, as regras estão valendo pra valer, e as consequências são bem reais, principalmente quando falamos dessas multas pesadas. Eu mesmo já comecei a olhar com outros olhos para os sistemas de IA que uso no dia a dia, pensando se está tudo certo ou se falta alguma documentação.

O mais curioso é ver como até empresas gigantes estão batendo cabeça com as exigências, pedindo mais tempo ou reclamando das regras. No fim das contas, acho que o recado é claro: não dá mais pra ignorar a regulamentação, seja você uma startup ou uma multinacional. Quem quiser atuar na Europa vai ter que se adaptar, e rápido. Eu, pelo menos, já estou revendo meus processos e tentando entender como não cair nessas armadilhas. Melhor prevenir do que pagar caro depois, né?

Perguntas Frequentes

O que é o AI Act e por que ele é importante?

O AI Act é uma lei da União Europeia que cria regras para o uso de inteligência artificial. Ele é importante porque obriga empresas do mundo todo, até as brasileiras, a seguirem normas para proteger pessoas e garantir que a IA seja usada de forma segura e justa.

Minha empresa no Brasil pode ser multada pelo AI Act?

Sim. Mesmo que minha empresa esteja no Brasil, se eu tenho clientes na União Europeia ou ofereço serviços online acessíveis lá, posso ser fiscalizado e multado se não seguir as regras do AI Act.

Como as multas do AI Act funcionam?

As multas podem chegar até 3% do faturamento global da empresa por ano. Para desenvolvedores de IA avançada, as multas podem ser ainda maiores, chegando a 7%. O valor depende do tamanho da empresa e do tipo de descumprimento.

Quais são os principais deveres das empresas com o AI Act?

Preciso identificar meus sistemas de IA, classificar o risco de cada um, documentar tudo e ser transparente sobre como a IA funciona. Também devo garantir medidas de segurança e mostrar que estou tentando evitar problemas.

Por que algumas empresas são contra o AI Act?

Algumas empresas acham que as regras são muito difíceis ou caras de cumprir. Elas também reclamam que o código de conduta exige testes e transparência demais, o que pode atrapalhar a inovação e aumentar os custos.

O AI Act vai influenciar leis em outros países, como o Brasil?

Sim. O AI Act é tão forte que está servindo de exemplo para outros países, inclusive o Brasil. A tendência é que as regras europeias inspirem novas leis e exigências em vários lugares do mundo.

Share this content: