Por: Renata Marques

Data: 17/07/2024

Com o avanço acelerado da tecnologia, a Inteligência Artificial (IA) está provocando uma transformação significativa em diversos setores, incluindo o segmento de previdência complementar. Essa revolução tecnológica traz à tona uma série de desafios éticos e regulatórios que precisam ser abordados com rigor para possibilitar segurança e a privacidade dos dados dos participantes.

Entre as questões éticas mais urgentes está a utilização justa e equitativa dos algoritmos. É de extrema relevância que os dados sejam qualificados e organizados de forma meticulosa (curadoria) e que a análise desses dados seja realizada com atenção para identificar e corrigir possíveis vieses. A implementação de medidas para prevenir a perpetuação de injustiças ou segregações é fundamental para garantir que os sistemas de IA funcionem de maneira imparcial e benéfica para todos os envolvidos.

Recentemente, o Ministério da Ciência, Tecnologia e Inovações criou a EBIA – Estratégia Brasileira de Inteligência Artificial. A EBIA visa desenvolver princípios éticos para orientar o uso responsável da IA. Essa estratégia é fundamental para fomentar uma abordagem consistente e responsável em relação à implementação da IA no Brasil.

Entre suas vantagens estão a criação de um framework sólido para garantir a transparência e a equidade nos sistemas de IA, o que pode aumentar a confiança do público e das empresas na tecnologia. Além disso, a EBIA auxilia na prevenção de vieses e discriminações ao estabelecer diretrizes claras para a coleta e o tratamento de dados. Com isso, a estratégia contribui para a formação de um ambiente regulatório que estimula a inovação tecnológica enquanto protege os direitos dos indivíduos e assegura a conformidade com padrões éticos elevados. A EBIA também facilita a colaboração entre o setor público e privado, promovendo melhores práticas e a adoção de tecnologias que respeitem a privacidade e a segurança dos dados pessoais.

Um estudo realizado pelo Capgemini Research Institute, intitulado “Why Addressing Ethical Questions in AI Will Benefit Organizations” (em tradução livre: “Porque Abordar Questões Éticas em IA Beneficiará as Organizações”), apontou que consumidores, funcionários e cidadãos estão atentos ao comportamento das empresas em relação à ética na IA. Esses indivíduos estão prontos para recompensar ou punir as empresas, demonstrando que poderiam ser mais leais, comprar mais ou se tornar defensores de organizações em que as interações com IA estejam alinhadas com princípios éticos.

No Brasil, um levantamento realizado pela Deloitte revelou que 78% das organizações estão investindo em iniciativas de compliance para assegurar a conformidade com a Lei Geral de Proteção de Dados (LGPD). A pesquisa da Deloitte revelou que 62% dos consumidores confiam mais em empresas cujas interações com IA são éticas; 61% compartilhariam experiências positivas com amigos e familiares; 59% demonstrariam maior lealdade à empresa, e 55% comprariam mais produtos e forneceriam avaliações positivas nas mídias sociais. Além disso, no contexto internacional, um estudo da IBM – Institute for Business Value apontou que 85% das empresas globais acreditam que a transparência no uso da IA é crucial para manter a confiança do consumidor.

A importância da ética no uso da IA

A ética, do ponto de vista da inteligência artificial, refere-se ao conjunto de princípios e diretrizes que orientam o desenvolvimento, implementação e uso responsável e correto dessa tecnologia.

Por meio da ética se estabelece um compromisso contínuo com a criação e a manutenção de sistemas que respeitem os direitos humanos, promovam a justiça e a equidade, protejam a privacidade e a segurança dos dados, e sejam transparentes e responsáveis. Esses princípios são essenciais para garantir que a IA seja uma força positiva na sociedade:

  1. Transparência: clareza sobre como os sistemas de IA tomam decisões. Os algoritmos e processos devem ser compreensíveis para os desenvolvedores, usuários e, quando apropriado, para o público.
  2. Justiça e igualdade: toda IA deve ser projetada e utilizada de maneira a não perpetuar ou amplificar preconceitos e discriminações. Isso implica a necessidade de desenvolver algoritmos que tratem todos os indivíduos de forma justa, independentemente de características como raça, gênero, idade, entre outras.
  3. Privacidade e segurança: proteger dados pessoais é um pilar ético na IA. Isso inclui garantir que os dados dos usuários sejam coletados, armazenados e utilizados de maneira segura e conforme as leis de proteção de dados, como a Lei Geral de Proteção de Dados (LGPD) no Brasil.
  4. Responsabilidade: A responsabilidade diz respeito à atribuição de deveres e à prestação de contas pelas ações e decisões tomadas por sistemas de IA. As organizações e os desenvolvedores devem ser responsáveis pelos impactos sociais e éticos de suas tecnologias, monitorando e corrigindo falhas, se houver.
  5. Autonomia e controle humano: Embora a IA possa automatizar muitos processos, é fundamental manter o controle humano sobre decisões críticas. Isso é importante para prevenir a dependência excessiva da automação, assegurando a interferência humana em qualquer caso menos operacional.

A crescente integração da IA em diversos aspectos da vida cotidiana, desde diagnósticos médicos até decisões financeiras e de segurança pública, levanta questões cruciais sobre a responsabilidade das organizações, ficando claro que o desenvolvimento e a implementação de sistemas de IA devem ser orientados por princípios éticos,  proporcionando que seu funcionamento ocorra de maneira ética e justa, sendo estes aspectos  essenciais para construir a confiança pública e maximizar os benefícios dessa tecnologia.

Compliance: mais conformidade e segurança

As empresas devem adotar boas práticas de proteção de dados e cumprir regulamentações como a LGPD. É fundamental que os dados sejam anonimizados sempre que possível e que os usuários mantenham controle sobre suas próprias informações. Neste contexto, o Cibrius possui implementada a Política de Proteção e Privacidade dos Dados e o Programa de Governança e Proteção de Dados. Estas normas fazem parte do nosso Programa de Compliance e Integridade e formalizam o posicionamento da Entidade sobre o tema, além de estabelecer princípios e práticas para que os processos organizacionais estejam em conformidade com a LGPD e outros regulamentos relevantes. Dentre as ações, podemos destacar os seguintes aspectos:

Mais segurança para os participantes

O Cibrius está constantemente aprimorando seus processos para garantir que os dados dos participantes estejam sempre seguros. Nosso compromisso com a ética e o desenvolvimento do Programa de Compliance e Integridade são evidências de que firmamos um compromisso na proteção de nossos participantes e assistidos.

Reconhecemos que a confiança é um dos pilares mais importantes na relação com nossos participantes. Por isso, buscamos continuamente aprimorar nossas tecnologias,  bem como aperfeiçoar nossos processos para proporcionar que nossos participantes contem com a máxima segurança e conformidade em todos os nossos serviços.

Em um mundo cada vez mais dominado pela IA, o Cibrius se destaca pelo compromisso com a ética, a transparência e a responsabilidade, garantindo que nosso público esteja sempre protegido e bem-informado.

Fontes: Capgemini Research Institute, “AI and the Ethical Conundrum”, IBM “AI Ethics in Action”, FGV