Inteligência Artificial e Ética: Como Encontrar o Equilíbrio?
- Comunicação Favela In
- 27 de jun.
- 6 min de leitura
A ascensão da Inteligência Artificial (IA) nos últimos anos tem transformado diversos aspectos da vida humana: do trabalho à educação, da saúde ao entretenimento. No entanto, junto aos benefícios trazidos por essa tecnologia, surgem desafios éticos cada vez mais urgentes, como garantir que a IA seja utilizada de forma justa, responsável e segura. Essa é uma das grandes questões do nosso tempo, e encontrar o equilíbrio entre avanço tecnológico e princípios éticos tornou-se essencial.
O Progresso Tecnológico e Seus Impactos Sociais
A Inteligência Artificial (IA) tem sido cada vez mais introduzida ao ambiente corporativo, transformando setores como saúde, finanças, segurança pública, mobilidade urbana e educação. Essa transformação não ocorre de forma uniforme no mundo. Em países altamente industrializados, a adoção da IA tem acelerado rapidamente e impactado diretamente a produtividade econômica. Já no Brasil, embora haja avanços, o uso corporativo da IA ainda enfrenta desafios estruturais e regulatórios que limitam sua expansão.
Segundo o relatório da consultoria McKinsey (2023), cerca de 55% das empresas globais já utilizam alguma forma de IA, principalmente em áreas como automação de processos, análise de dados e atendimento ao cliente por meio de chatbots. Um novo estudo da mesma consultoria, publicado em janeiro de 2025, estima que a adoção corporativa da IA pode gerar até 4,4 trilhões por ano em crescimento de produtividade em todo o mundo. Esses ganhos estão especialmente concentrados nos setores financeiro, varejista e de manufatura, nos quais o uso da IA para prever comportamentos de consumo, otimizar estoques e automatizar linhas de produção tem se mostrado altamente eficiente.
No contexto brasileiro, o cenário é mais modesto, embora promissor. Um levantamento da Associação Brasileira das Empresas de Software (ABES) revelou que o Brasil representa cerca de 1,8% do mercado mundial de tecnologia da informação, e embora o número de empresas que usam IA esteja crescendo, ainda é pequeno quando comparado ao padrão global. De acordo com o mesmo relatório, menos de 30% das empresas brasileiras utilizam IA de forma estruturada. A maioria das aplicações ainda se concentra em grandes empresas, com menor penetração entre médias e pequenas.
Apesar de seus avanços e promessas de eficiência, a Inteligência Artificial tem aprofundado desigualdades sociais em diversos contextos. Os sistemas de IA, muitas vezes alimentados por bases de dados enviesadas, reproduzem e ampliam preconceitos estruturais já existentes. Um exemplo marcante foi evidenciado em estudo do MIT Media Lab, que identificou taxas de erro de até 34,7% na identificação de mulheres negras por algoritmos de reconhecimento facial, enquanto a taxa para homens brancos foi inferior a 1%. Esses dados revelam um risco real de discriminação automatizada.
No Brasil, a situação é agravada pela falta de representatividade nos dados utilizados e pela ausência de fiscalização rigorosa. Populações vulneráveis, como pessoas negras, periféricas e de baixa renda, acabam sendo as mais prejudicadas. Sistemas automatizados ou não utilizados em processos seletivos, concessão de crédito ou políticas públicas podem gerar exclusão, reforçando estigmas históricos e limitando o acesso a direitos básicos.
Portanto, além da inovação tecnológica, é imprescindível refletir sobre quem são os beneficiados e quem são os prejudicados por essas tecnologias. A ética na IA deve começar pela diversidade nos dados, na equipe de desenvolvimento e na responsabilização dos impactos sociais de seus algoritmos.
Fake News e a Manipulação Algorítmica
Entre os riscos mais alarmantes trazidos pela IA está a disseminação de desinformação automatizada ou não, especialmente por meio de deepfakes e modelos generativos. Deepfakes são vídeos manipulados com IA para simular falas ou ações de pessoas reais. Já os modelos de linguagem, como os usados em chatbots, podem ser utilizados para espalhar fake news com aparência de conteúdo legítimo.
No Brasil, com o avanço da Inteligência Artificial e das redes sociais, crianças têm sido expostas a uma nova onda de conteúdos digitais que desafiam os limites da linguagem, do humor e da cognição. Um exemplo emblemático é o fenômeno conhecido como Brainrot Italiano, que viralizou em plataformas como TikTok por meio de vídeos gerados por IA, protagonizados por personagens caricatos como a “Ballerina Cappuccina” — uma bailarina com cabeça de cappuccino — e o “Bombardiro Crocodilo”, um avião antropomórfico que grita frases sem sentido. Embora, à primeira vista, esses vídeos pareçam inofensivos ou cômicos, especialistas alertam para os riscos cognitivos e emocionais que esse tipo de conteúdo pode representar para o público infantil.
O principal problema causado por esses vídeos não está apenas em seu teor absurdo, mas na forma como eles são construídos: visualmente caóticos, com sons repetitivos e ritmo acelerado. Segundo especialistas em psicologia infantil, esse tipo de estímulo digital pode provocar sobrecarga sensorial, dificultar a concentração e impactar negativamente o desenvolvimento da linguagem e da criatividade das crianças.
A psicóloga Cheryl Eskin compara o fenômeno a uma espécie de “algodão doce digital”: colorido, rápido e envolvente, mas vazio de valor formativo. “Se esse for o único tipo de conteúdo consumido pelas crianças, podemos observar prejuízos na atenção, irritabilidade e alterações de humor”, afirma a profissional, que atua em programas de apoio emocional infantil. Em outras palavras, vídeos gerados por IA com essa estética hiperestimulante oferecem uma experiência viciante, mas desprovida de estímulo cognitivo ou educativo.
Outro caso envolvendo o uso de Inteligência Artificial que gerou repercussão, foi a imagem do Papa Francisco com um visual “moderno” que causou fascínio nas redes sociais. Embora falsa, a imagem do Papa, para muitos usuários, representava uma quebra nos estereótipos da Igreja Católica e uma humanização da figura papal. Comentários como "o Papa virou fashion icon" ou "gostaria que ele fosse realmente assim" demonstraram um engajamento espontâneo, com milhões de curtidas, compartilhamentos e memes subsequentes.
Diante disso, a estética inesperada provocou reflexões sobre como símbolos religiosos podem dialogar com a cultura pop, especialmente entre jovens. E, de acordo com a análise publicada pela Time Magazine, o caso revelou que "a imagem, ainda que falsa, aproximou o Papa de pessoas que normalmente não se interessam por temas religiosos".
A Busca Pelo Equilíbrio: Benefícios das Leis de Inteligência Artificial
A aprovação de legislações específicas para regulamentar o uso da Inteligência Artificial, como o AI Act na União Europeia e o Projeto de Lei 2.338/2023 no Brasil, representa um avanço essencial para garantir que o desenvolvimento tecnológico esteja ancorado em valores éticos e democráticos. Essas normas não são meramente restritivas; pelo contrário, oferecem benefícios concretos para indivíduos, instituições e para a sociedade como um todo.
Entre os pontos positivos do AI Act europeu, destaca-se a classificação de sistemas de IA por níveis de risco, o que permite que tecnologias com maior potencial de causar danos — como reconhecimento facial em tempo real ou algoritmos decisórios em áreas sensíveis (justiça, saúde, crédito, etc.) — sejam submetidas a regras mais rígidas de segurança, interpretabilidade e supervisão humana. Essa abordagem protege os cidadãos contra abusos e aumenta a confiança no uso da tecnologia.
Já no caso brasileiro, o PL 2.338/2023 incorpora princípios fundamentais como transparência, não discriminação, segurança, responsabilidade e supervisão contínua dos sistemas de IA. Isso significa que empresas e desenvolvedores serão incentivados a adotar práticas mais responsáveis desde o início do desenvolvimento dos sistemas, o que pode reduzir casos de preconceito algorítmico, como o apontado em estudos do MIT sobre reconhecimento facial. A exigência de rotulagem de conteúdo gerado por IA, por exemplo, ajuda a conter a disseminação de fake news, deepfakes e manipulações que colocam a democracia e a saúde mental em risco.
Além disso, essa legislação cria mecanismos para responsabilização jurídica, o que garante que, em casos de violação de direitos ou danos causados por IA, os responsáveis possam ser punidos. Isso promove um ambiente digital mais seguro, tanto para consumidores quanto para empreendedores éticos.
Outro benefício é o incentivo à inovação responsável. Com regras claras, as empresas têm um parâmetro para desenvolver soluções tecnológicas que respeitem os direitos fundamentais. Segundo especialistas do Instituto de Tecnologia e Sociedade (ITS Rio), isso pode transformar o Brasil em um polo de “IA ética”, promovendo confiança internacional, atração de investimentos e inclusão digital segura.
Por fim, ao proteger os cidadãos da manipulação algorítmica, da discriminação automatizada e da opacidade dos sistemas, essas legislações empoderam a sociedade. Elas criam as bases para uma convivência mais justa e equilibrada entre humanos e máquinas, garantindo que a tecnologia esteja a serviço das pessoas — e não o contrário.
Referências Bibliográficas
ASSOCIAÇÃO BRASILEIRA DAS EMPRESAS DE SOFTWARE – ABES. Mercado Brasileiro de Software – Panorama e Tendências 2022. Disponível em: https://abes.com.br/dados-do-setor. Acesso em: 10 jun. 2025.
EXAME. Brain Rot: um vírus cultural feito por IA. Disponível em: https://exame.com/inteligencia-artificial/brain-rot-um-virus-cultural-feito-por-ia/. Acesso em: 10 jun. 2025.
LUPA. Agências de checagem identificam fake news com IA nas eleições. Disponível em: https://www.lupa.news. Acesso em: 10 jun. 2025.
MC KINSEY & COMPANY. The economic potential of generative AI: The next productivity frontier. 2023. Disponível em: https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier. Acesso em: 10 jun. 2025.
MIT MEDIA LAB. Study finds gender and skin-type bias in AI systems. 2018. Disponível em: https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212. Acesso em: 10 jun. 2025.
WIKIPÉDIA. Brainrot italiano. Disponível em: https://pt.wikipedia.org/wiki/Brainrot_italiano.
ESKIN, Cheryl. “Italian brainrot is digital cotton candy for the brain […] se isso for tudo que consomem, podemos ver problemas de atenção e variação de humor.” ABC News, 2025. Disponível em: https://abcnews.go.com/GMA/Family/parents-viral-italian-brainrot-trend-taking-kids-screens/story?id=121751636. Acesso em: 26 jun. 2025.
UNIÃO EUROPEIA. Artificial Intelligence Act. 2024. Disponível em: https://artificialintelligenceact-eu.translate.goog. Acesso em: 10 jun. 2025.
AOS FATOS. Falso: Foto do papa Francisco de jaqueta branca. Disponível em: https://www.aosfatos.org/noticias/falso-foto-papa-francisco-jaqueta-branca/. Acesso em: 10 jun. 2025.
TIME. How to Spot an AI-Generated Image Like the ‘Balenciaga Pope’. 28 mar. 2023. Disponível em: https://time.com/6266606/how-to-spot-deepfake-pope/. Acesso em: 26 jun. 2025.
CÂMARA DOS DEPUTADOS. Projeto de Lei 2.338/2023. Disponível em: https://www.camara.leg.br/propostas-legislativas/2352192. Acesso em: 10 jun. 2025.
INSTITUTO DE TECNOLOGIA E SOCIEDADE – ITS. Estudos sobre ética e governança da IA no Brasil. Disponível em: https://itsrio.org. Acesso em: 10 jun. 2025.
Comments