Artigo
Artigo
Entre eficiência e ética: os caminhos para uma IA socialmente justa

A expansão do uso de inteligência artificial (IA) tem reconfigurado de maneira expressiva os processos sociais, desde serviços públicos até a forma como empresas avaliam candidatos, concedem crédito ou direcionam benefícios. No componente Social do ESG, esse avanço pode promover inclusão ao ampliar o acesso, reduzir custos operacionais e personalizar serviços essenciais. No entanto, como alertam Lyra (2024) e pesquisas acadêmicas recentes mais detalhadas no decorrer deste artigo, o uso irrestrito de IA também pode reforçar desigualdades existentes, caso sistemas automatizados reproduzam vieses estruturais presentes nos dados. Assim, avaliar impactos sociais significa considerar indicadores de equidade, acesso, representatividade e qualidade de vida — e não apenas ganhos de eficiência.
Para orientar esse processo, modelos internacionais como os Princípios de Inteligência Artificial da OCDE (OCDE, 2019) estabelecem diretrizes baseadas em direitos humanos, justiça, transparência e responsabilidade. Esses princípios éticos têm servido de base para políticas nacionais e pesquisas universitárias, e são insumos para frameworks normativos que organizam o impacto ético em três principais eixos: princípios, métricas e governança. A operacionalização desses eixos passa por práticas como avaliação prévia de impacto, auditorias de viés, explicabilidade técnica e monitoramento contínuo dos efeitos sobre grupos vulneráveis, orientações que também constam no Framework para Autoavaliação de Impacto Ético em IA no Setor Público (GOVERNO DO BRASIL, 2022).
No Brasil, a Estratégia Brasileira de Inteligência Artificial – EBIA (GOVERNO DO BRASIL, 2021) destaca cinco fundamentos essenciais: crescimento inclusivo, centralidade humana, equidade, transparência e accountability (responsabilidade - prestação de contas). A EBIA reforça a necessidade de que a IA seja usada como ferramenta para ampliar justiça social e não apenas como solução técnica. Além de suscitar argumentações em eixos governamentais, essa perspectiva também aparece nas iniciativas e debates em instituições acadêmicas, como as citadas a seguir:
- Universidade Federal do Rio de Janeiro (UFRJ) promove discussões sobre “inovação responsável” no uso da IA — por exemplo, em eventos recentes do Centro de Ciências da Saúde da UFRJ (CCS/UFRJ), alertando para a necessidade de equilíbrio entre potencial tecnológico e ponderação ética e social (UFRJ, 2025) (CCS/UFRJ, 2025) — e em iniciativas de cátedras e cursos que articulam IA, ética e impacto social.
- Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) - II Seminário Internacional de IA e Direito enfatizou a relação entre técnica, ética e direitos fundamentais (PUC-RIO, 2025), defendendo que o desenvolvimento científico deve considerar impactos sociais e riscos distributivos. A criação do Instituto PUC-Behring de Inteligência Artificial, refletindo a visão do potencial transformador da IA na forma como o conhecimento é acessado e produzido.
- Pontifícia Universidade Católica de São Paulo (PUC-SP) - por meio de seu programa de Ciência de Dados e Inteligência Artificial, propõe uma abordagem Humanistic AI, integrando formação técnica com ética, justiça e responsabilidade (PUC-SP, 2025).
Um aspecto central para o eixo social do ESG (ambiental, social e governança em português) é a construção de métricas de impacto, capazes de avaliar se sistemas de IA produzem benefícios líquidos para a sociedade. Isso inclui, por exemplo, medir a ampliação do acesso a serviços, detectar desigualdades de desempenho entre grupos, monitorar impactos sobre empregos e avaliar se há mecanismos adequados de contestação e reparação. Como observa Lyra (2024), qualquer reflexão ética sobre IA deve levar em conta contextos reais de aplicação, já que tecnologias não existem isoladamente, mas operam dentro de estruturas sociais, políticas e econômicas.
A implementação prática de governança de IA no governo e organizações da sociedade civil exige alinhamento entre direcionamentos estratégicos, políticas internas e modelos internacionais. Isso inclui a criação de comitês multidisciplinares, definição de políticas de uso responsável, documentação de modelos e processos, além do envolvimento de comunidades afetadas na análise de impacto. Segundo o Framework Ético do governo federal (GOVERNO DO BRASIL, 2022), transparência, participação e supervisão humana são elementos centrais para reduzir riscos e fortalecer a confiança da sociedade em tecnologias automatizadas.
Neste contexto o Serpro apresenta uma iniciativa relevante: a incorporação de ética by design já na fase de prospecção e concepção de soluções digitais, conforme suas diretrizes internas de desenvolvimento confiável, associado ao processo de desenvolvimento corporativo (Unifica). Nesses guias, equipes multidisciplinares são orientadas a avaliar impactos sociais, riscos de discriminação, requisitos de transparência e a possível supervisão humana antes mesmo da definição do modelo algorítmico, em alinhamento direto com as exigências de proteção de dados previstas na Lei Geral de Proteção de Dados (LGPD) e nos padrões internacionais, como o Regulamento Geral sobre a Proteção de Dados (GDPR). Essa antecipação permite que requisitos legais — como minimização de dados, finalidade legítima, bases legais adequadas e medidas preventivas de segurança — sejam tratados de forma integrada com princípios éticos, evitando retrabalhos, custos adicionais e riscos de não conformidade.
Além disso, a abordagem reforça a convergência com o Framework para Autoavaliação de Impacto Ético em IA no Setor Público Federal (GOVERNO DO BRASIL, 2022), que recomenda incorporar ética desde as etapas iniciais do ciclo de vida da IA. O alinhamento entre essas práticas internas do Serpro e o framework nacional fortalece a coerência das políticas públicas, aumenta a confiança social nas soluções produzidas pelo Estado e estabelece um padrão de governança operacional que entrelaça responsabilidade, conformidade regulatória e compromisso com impactos sociais positivos.
Em síntese, integrar inteligência artificial ao eixo social do ESG não significa apenas adotar ferramentas tecnológicas, mas desenvolver estruturas de responsabilidade, avaliação e governança que garantam equidade, justiça e transparência. O diálogo entre políticas públicas brasileiras, princípios internacionais e pesquisas acadêmicas indica que o futuro da IA dependerá menos da sofisticação técnica e mais da capacidade de integrar ética, impacto social e responsabilidade institucional. É dessa convergência que surgem soluções de IA capazes de promover inclusão genuína, fortalecendo o desenvolvimento social sustentável.
Referências
GOVERNO DO BRASIL. Ministério da Ciência, Tecnologia e Inovações. Estratégia Brasileira de Inteligência Artificial – EBIA. Brasília, 2021. Disponível em: https://www.gov.br/governodigital/pt-br/estrategias-e-governanca-digital/estrategias-e-politicas-digitais/estrategia-brasileira-de-inteligencia-artificial. Acesso em: 29 nov. 2025.
GOVERNO DO BRASIL. Secretaria de Governo Digital. Framework para a autoavaliação de impacto ético em inteligência artificial no setor público federal. Brasília, 2022. Disponível em: https://www.gov.br/governodigital/pt-br/infraestrutura-nacional-de-dados/inteligencia-artificial-1/publicacoes/framework-para-a-autoavaliacao-de-impacto-etico-em-inteligencia-artificial-no-setor-publico-federal. Acesso em: 29 nov. 2025.
LYRA, Edgar. Ética na IA. Revista Alceu, v. 24, n. 53, 2024. Disponível em: https://revistaalceu.com.puc-rio.br/alceu/article/view/430. Acesso em: 29 nov. 2025.
ORGANIZAÇÃO PARA COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO – OCDE. OECD Principles on Artificial Intelligence. Paris, 2019. Disponível em: https://oecd.ai/en/ai-principles. Acesso em: 29 nov. 2025.
Centro de Ciências da Saúde da UFRJ (CCS/UFRJ). Desafios e oportunidades dos algoritmos de inteligência artificial na área da saúde: construindo um olhar crítico para a inovação responsável. Rio de Janeiro, 2025. Disponível em: https://www.ccs.ufrj.br/conteudos/ccs-discute-impactos-da-inteligencia-artificial-na-ciencia. Acesso em: 29 nov. 2025.
UFRJ. Inteligência artificial e ética na pesquisa. Rio de Janeiro, 2023. Disponível em: https://ct.ufrj.br/inteligencia-artificial-e-etica-na-pesquisa/. Acesso em: 04 dez. 2025.
PUC-SP. Bacharelado em Ciência de Dados e Inteligência Artificial (Humanistic AI). São Paulo, 2025. Disponível em: https://www.pucsp.br/graduacao/ciencia-de-dados-e-inteligencia-artificial. Acesso em: 04 dez. 2025.
PUC-Rio. Instituto ECOA. II Seminário Internacional de IA e Direito: entre a técnica, a ética e o direito. Rio de Janeiro, 2025. Disponível em: https://instituto.ecoa.puc-rio.br/seminario-internacional-de-ia-e-direito/. Acesso em: 04 dez. 2025.
_______________
Sobre os autores
Inah Lúcia Barbosa (Tuti) é formada pela PUC/RJ em Análise de Sistemas, possui pós-graduação em Arquitetura de Sistemas pela Estácio de Sá e em Engenharia de Sistemas pela Universidade Federal de Pernambuco (UFPe). Entrou no Serpro em 1986, trabalhou com desenvolvimento e na área de negócio, atendendo ao cliente Receita Federal, com participação em projetos inovadores da empresa. Experiência em gestão de projetos, área que atua desde 1997, se especializou em projetos de normatização, sistemáticas e padronização com equipes multidisciplinares. Atualmente no Departamento de Suporte a Governança e Gestão do Desenvolvimento é responsável pela Governança de Dados e de IA e Ética no Tratamento de Dados. Coordenadora do Comitê de Governança de IA do Serpro. Atua no Projeto Ser ESG, na dimensão Impacto Social nos Negócios, coordenando as entregas do tema IA Responsável.
Wesley Sousa é arquiteto de software e mestre em engenharia de software pela Universidade de Fortaleza (UNIFOR). Possui as certificações Serpro/Datashield P01C e P02C (Encarregado de Dados e Gestor de Dados) e certificação EXIN PDPE. Analista de sistemas no SERPRO desde 2006, atua no Departamento de Arquitetura com ações direcionadas à segurança, privacidade e proteção de dados pessoais. Palestrante em eventos (TDC, Semana da Inovação, entre outros) no tema privacidade e proteção de dados no ciclo de desenvolvimento de software. Membro da Associação Nacional dos Profissionais de Privacidade de Dados. No Serpro, é membro da Rede Serpro de Privacidade e Proteção de Dados.