
Essa imagem busca representar a interação humana com a inteligência artificial, com elementos que remetem à ética e à privacidade de dados, de forma realista e impactante.
A Inteligência Artificial já não é ficção científica, mas uma realidade que molda nosso dia a dia e a forma como governos e empresas operam. Mas junto com essa revolução tecnológica, surge uma pergunta crucial: estamos realmente preparados para garantir que ela seja usada de forma ética e responsável? É sobre isso que Walter Marinho aborda em seu texto “Governança e Ética em Regulação de Inteligência Artificial”.
Walter é escritor possui formação em Governabilidade, Gerência Política e Gestão Pública (CAF e FGV), Governança e Inovação Pública para Líderes da América Latina e Caribe (CAF e FGV, 2022). Marinho também tem um Master Executive Management pela Universidade Europeia (Lisboa), ITIL Governance Executive pela Universidade Lusófona (Lisboa) e Transformação Digital em Governo (Insper), entre outras formações. Possui mais de 21 anos de experiência nas áreas de negócios e políticas públicas, com ênfase em governança, inovação, gestão, ESG (Environmental, Social, and Governance) e relações governamentais estratégicas em diversos mercados, como a União Europeia, Comunidade dos Países de Língua Portuguesa (CPLP) e América Latina.
Voltando ao assunto de IA o Pulo do Gato da IA: Mais que Inteligência, Modelos Matemáticos, Primeiro, vamos desmistificar algo importante: a IA não é “inteligente” no sentido humano. Pense nela como um conjunto de modelos matemáticos e estatísticos que aprendem com dados para realizar tarefas específicas. O verdadeiro poder – e o desafio – começa quando transferimos a ela a capacidade de tomar decisões, algo que antes era puramente humano.
Historicamente, o acesso ao conhecimento era mais restrito e pautado por critérios morais, justamente para evitar que o poder da tecnologia superasse a capacidade humana de discernimento. Hoje, com a IA disponível a um clique, essa preocupação é mais urgente do que nunca. É preciso evitar que esse poder seja usado de qualquer forma, sem respeitar nossos direitos individuais e coletivos.
O Nó Cego: Vieses Algorítmicos e a Invasão da Privacidade
Aqui entra o grande calcanhar de Aquiles da IA: os vieses algorítmicos. Por mais que pareçam neutras, essas tecnologias são criadas por pessoas, e nós, humanos, carregamos nossos próprios preconceitos. Esses preconceitos, por vezes, são injetados nos sistemas desde a coleta até a implementação dos dados. E a notícia não é boa: dados já podem vir “contaminados” por preconceitos e discriminações.
Veja alguns exemplos assustadores que destacamos:
- Nos EUA, um sistema de policiamento preditivo foi acusado de usar “dados sujos” que refletiam preconceitos, ampliando práticas policiais questionáveis.
- Na Inglaterra, um sistema de IA para admissão em universidades teve um viés machista, excluindo mulheres de cursos de medicina, mesmo com notas para entrar.
- Um estudo do MIT mostrou que softwares de reconhecimento facial são menos precisos em rostos femininos e masculinos de pele mais escura. O motivo? Os dados usados para treinar esses sistemas super-representam pessoas brancas, especialmente homens.
E a privacidade de dados? Essa é outra dor de cabeça gigante. Governos e empresas coletam, armazenam e compartilham uma quantidade imensa de informações sobre nós. Quando o governo atua como uma “plataforma” – integrando serviços públicos e privados –, como podemos ter certeza de que nossos dados não serão usados para fins políticos ou comerciais sem nosso consentimento? Leis como a LGPD no Brasil e a GDPR na Europa são um começo, mas a verdade é que a legislação precisa correr para acompanhar a velocidade da IA.
A Receita para uma IA Responsável: Transparência, Ética e Regulamentação
Walter Marinho aponta para pilares essenciais para garantir que a IA seja uma força para o bem:
- Transparência e Explicabilidade: Não basta que a IA tome decisões; precisamos entender como ela as toma. Os cidadãos devem ter o direito de saber e contestar as decisões de IA que os afetem, com a possibilidade de uma revisão humana.
- Combate aos Vieses: É vital identificar e eliminar preconceitos em todas as fases de um projeto de IA. Isso significa testar os sistemas com diversos grupos de pessoas e garantir que as equipes de desenvolvimento sejam multidisciplinares e treinadas em ética.
- Responsabilidade Humana: Por mais avançada que seja a IA, a responsabilidade final é sempre humana. É preciso que haja um “maestro” – um gestor ou centro de governo da inovação – que supervise os projetos de ponta a ponta, auditando resultados e garantindo que a ética e a governança sejam respeitadas.
- Classificação de Risco: Nem toda IA é igual. Algoritmos devem ser classificados por nível de risco (de 1 a 5, sendo 5 o mais alto impacto). A União Europeia, por exemplo, quer proibir IAs de “risco inaceitável”, como aquelas que manipulam comportamentos, e exige avaliações rigorosas para as de “alto risco”.
- Notificação Clara ao Cidadão: Sempre que um algoritmo estiver envolvido em uma decisão que afete o cidadão, ele deve ser notificado. Pense como um aviso de verificação de crédito; o cidadão precisa saber que uma IA está em ação.
O Brasil no Contexto da Regulamentação Global
O mundo está correndo para regulamentar a IA. A União Europeia já avançou com a primeira lei abrangente sobre o tema, aprovada no final de 2023. No Brasil, o Projeto de Lei 2.338/2023, aprovado no Senado, é um passo fundamental. Ele assegura o direito à explicação e à revisão humana de decisões tomadas por IA de alto risco, e dá à ANPD o poder de fiscalizar e aplicar sanções.
A confiança é a moeda do futuro digital. Em “governos como plataforma”, onde serviços públicos e privados se misturam, e até mesmo nos promissores “metaversos públicos” (como em Seul, Coreia do Sul), a ausência de uma legislação robusta para privacidade e governança pode levar a problemas sérios, como o já conhecido caso do programa Robodebt na Austrália, que teve uma taxa de erro de 20% e gerou dívidas indevidas aos cidadãos.
Um Futuro com “Cabo de Guerra” ou Colaboração?
A IA tem um potencial imenso, mas exige responsabilidade. Como ressalta Walter Marinho, a excelência em governança e julgamentos éticos em nossas máquinas pode nos levar a decisões menos tendenciosas e mais justas do que as humanas.
Ainda estamos no início dessa jornada. É um “cabo de guerra” entre o poder da tecnologia e a necessidade de proteger nossos direitos. Mas, com transparência e ética como bússola, a IA pode, de fato, ser uma ferramenta para o bem, um futuro onde “as cordas” da manipulação de informações sejam evidentes, permitindo-nos enxergar e agir com clareza.
Em última análise, o futuro da IA não está apenas nas mãos dos desenvolvedores, mas nas decisões que nós, como sociedade, tomamos hoje. Precisamos ser ativos nesse debate, exigindo que a tecnologia sirva ao bem comum, com ética, equidade e respeito aos direitos de cada indivíduo. Que a IA seja uma ferramenta de progresso e não uma caixa-preta de decisões opacas. O poder do conhecimento é imenso; a responsabilidade em usá-lo é ainda maior.