Nenhum ramo de atividade ou setor econômico permanece intocado pela transformação trazida pela Inteligência Artificial (IA) e suas capacidades. Em particular, a IA generativa tem provocado grande interesse entre empresas, indivíduos e líderes de mercado, impulsionando a inovação em operações cotidianas.
A notável habilidade da IA generativa de criar conteúdo variado e de alta qualidade — desde textos e imagens até vídeos e música — causou um impacto significativo em diversas áreas.
Segundo um estudo da Acumen, projeta-se que o mercado mundial de IA generativa alcance a marca de US$ 208,8 bilhões até 2032, com um crescimento anual composto (CAGR) de 35,1% entre 2023 e 2032.
Entretanto, o avanço dessa tecnologia poderosa traz consigo diversas preocupações e questões éticas que não podemos ignorar, especialmente aquelas ligadas à proteção de dados, direitos autorais, deepfakes e questões de conformidade.
Neste artigo, exploraremos em detalhes essas preocupações éticas da IA generativa, o que elas envolvem e como podemos evitá-las. Antes disso, vamos analisar as Diretrizes de Ética estabelecidas pela União Europeia em 2019 para uma IA confiável.
Diretrizes Éticas para uma IA Confiável
Em 2019, um grupo de especialistas de alto nível em IA estabeleceu as Diretrizes Éticas para Inteligência Artificial (IA) Confiável.
Essas diretrizes foram publicadas com o objetivo de lidar com os riscos potenciais da IA naquele momento, incluindo infrações de dados e privacidade, práticas discriminatórias, o perigo de impactos negativos sobre terceiros, IA não confiável e atividades fraudulentas.
As diretrizes propõem três pilares nos quais uma IA confiável deve se fundamentar:
- Ético: Deve observar valores e princípios éticos.
- Legal: Deve cumprir todas as leis e regulamentos pertinentes.
- Robusto: Deve garantir segurança sob uma perspectiva tanto técnica quanto do ambiente social.
Adicionalmente, as diretrizes também destacaram sete requisitos primordiais que um sistema de IA deve atender para ser considerado confiável. Esses requisitos são:
Apesar dessas diretrizes terem tido um impacto expressivo na indústria da IA, ainda existem preocupações, que inclusive estão crescendo com o avanço da IA generativa.
IA Generativa e o Aumento das Preocupações Éticas
Ao abordar a ética na IA, a IA generativa traz desafios particulares, especialmente com a chegada de modelos generativos como o OpenAI e o ChatGPT.
A própria natureza da IA generativa suscita preocupações éticas, principalmente em áreas como conformidade regulatória, segurança e privacidade de dados, controle, impactos ambientais e direitos autorais e propriedade de dados.
Por exemplo, a IA generativa pode produzir textos similares aos humanos, assim como imagens e vídeos, levantando preocupações sobre deepfakes, a criação de notícias falsas e outros conteúdos maliciosos que podem causar danos e propagar desinformação. Além disso, indivíduos podem também sentir uma perda de controle sobre as decisões dos modelos de IA com base em seus algoritmos.
Geoffrey Hinton, considerado o “padrinho da IA”, afirmou que os desenvolvedores de IA devem se esforçar para entender como os modelos de IA poderiam tentar tomar o controle dos humanos. Similarmente, diversos especialistas e pesquisadores de IA expressam preocupação com as capacidades e a ética da IA.
Yann LeCun, cientista-chefe de IA do Facebook e professor da NYU, considera as preocupações sobre uma ameaça da IA para a humanidade “absurdamente ridículas”.
Como a IA generativa concede a organizações e indivíduos a capacidade sem precedentes de alterar e manipular dados, abordar essas questões torna-se fundamental.
Analisemos essas preocupações em mais detalhes.
Geração e Distribuição de Conteúdo Nocivo
Com base nas instruções de texto fornecidas, os sistemas de IA podem criar e gerar automaticamente conteúdo que pode ser preciso e útil, mas também prejudicial.
Sistemas generativos de IA podem gerar conteúdo nocivo de forma intencional ou não, devido a fatores como alucinações da IA. As situações mais preocupantes incluem a tecnologia deepfake, que cria imagens, textos, áudios e vídeos falsos, manipulando a identidade e a voz de uma pessoa para espalhar discursos de ódio.
Exemplos de geração e distribuição de conteúdo prejudicial por IA podem incluir:
- Um e-mail ou postagem em redes sociais gerados por IA e enviados em nome de uma organização, que contenham linguagem ofensiva e inadequada, magoando os sentimentos de seus funcionários ou clientes.
- Invasores também podem usar deepfakes para criar e distribuir vídeos gerados por IA, apresentando figuras públicas, como políticos ou atores, dizendo coisas que eles não disseram. Um vídeo com Barack Obama é um dos exemplos mais populares de deepfake.
- Um exemplo de deepfake de áudio é quando, recentemente, um golpista simulou um sequestro clonando a voz de uma jovem para pedir resgate à sua mãe.
A disseminação de conteúdos prejudiciais pode trazer consequências sérias e impactos negativos na reputação e credibilidade de indivíduos e organizações.
Ademais, o conteúdo gerado por IA pode acentuar preconceitos ao aprender a partir de bases de dados de treinamento, gerando mais conteúdo tendencioso, odioso e prejudicial – configurando um dos dilemas éticos mais inquietantes da IA generativa.
Violação de Direitos Autorais
Como os modelos generativos de IA são treinados com base em grandes quantidades de dados, isso às vezes pode levar a uma ambiguidade de autoria e a questões de direitos autorais.
Quando ferramentas de IA geram imagens ou códigos, e criam vídeos, a fonte dos dados do conjunto de treinamento a que se referem pode ser desconhecida, de modo que isso pode infringir direitos de propriedade intelectual ou direitos autorais de outros indivíduos ou empresas.
Essas infrações podem levar a danos financeiros, jurídicos e de reputação para uma empresa, resultando em ações judiciais onerosas e repercussão pública.
Violações de Privacidade de Dados
Os dados de treinamento dos Modelos de Linguagem Grande (LLMs) de IA Generativa podem conter informações confidenciais e pessoais, também denominadas Informações de Identificação Pessoal (PII).
O Departamento do Trabalho dos EUA define PII como dados que identificam diretamente um indivíduo com detalhes como nome, endereço, endereço de e-mail, número de telefone, número de seguro social ou outro código ou número de identidade pessoal.
Violações de dados ou o uso não autorizado desses dados podem levar ao roubo de identidade, uso indevido de dados, manipulação ou discriminação, acarretando consequências legais.
Por exemplo, um modelo de IA, treinado com dados de histórico médico pessoal, pode inadvertidamente gerar um perfil que se assemelhe muito a um paciente real – causando preocupações de segurança e privacidade de dados e infração do regulamento da Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA).
Amplificação de Preconceitos Existentes
Assim como qualquer modelo de IA, mesmo um modelo de IA generativa é tão bom quanto a base de dados de treinamento com a qual é treinado.
Assim sendo, se a base de dados de treinamento apresentar preconceitos, a IA generativa acentuará esses preconceitos existentes, produzindo resultados tendenciosos. Esses preconceitos frequentemente se manifestam em relação a preconceitos sociais vigentes e podem conter abordagens racistas, sexistas ou capacitistas nas comunidades online.
De acordo com o Relatório do Índice de IA de 2022, 2021 desenvolveu um modelo de 280 bilhões de parâmetros que representa um aumento de 29% nos níveis de viés e toxicidade. Portanto, embora os LLMs de IA estejam se tornando mais capazes do que nunca, eles também estão se tornando mais tendenciosos com base em dados de treinamento já existentes.
Impacto nas Funções e no Moral da Força de Trabalho
Modelos generativos de IA aumentam a produtividade da força de trabalho ao automatizar atividades rotineiras e realizar tarefas cotidianas como redação, programação, análise, geração de conteúdo, resumo, atendimento ao cliente e muito mais.
Por um lado, isso contribui para aumentar a eficiência da força de trabalho, por outro, o crescimento da IA generativa também implica perda de empregos. Segundo o Relatório da McKinsey, a transformação da força de trabalho e a adoção da IA estimam que metade das tarefas e atividades atuais da força de trabalho poderão ser automatizadas entre 2030 e 2060, sendo 2045 o ano intermediário.
Embora a adoção da IA generativa represente a perda de alguns postos de trabalho, isso não significa que haja uma interrupção ou necessidade de conter o avanço da IA. Ao invés disso, os funcionários e trabalhadores deverão aperfeiçoar suas habilidades, e as organizações devem amparar os trabalhadores em suas transições de carreira, evitando a perda de seus empregos.
Falta de Transparência e Explicabilidade
A transparência é um dos pilares da IA ética. Entretanto, como a IA generativa é uma “caixa preta”, opaca e altamente complexa, atingir um alto nível de transparência é um grande desafio.
A natureza complexa da IA generativa dificulta determinar como se chegou a uma resposta/resultado específico ou mesmo entender os fatores que contribuíram para a tomada de decisão.
Essa falta de explicação e clareza frequentemente levanta preocupações sobre o uso e a manipulação indevida de dados, a precisão e confiabilidade dos resultados e a qualidade dos testes. Esta é uma questão particularmente relevante para aplicações e softwares de alto risco.
Impacto Ambiental
Modelos generativos de IA demandam uma quantidade considerável de poder computacional, especialmente aqueles de maior escala. Isso faz com que esses modelos consumam muita energia, o que causa potenciais impactos ambientais de alto risco, incluindo emissões de carbono e aquecimento global.
Apesar de ser um fator negligenciado da IA ética, garantir a compatibilidade ecológica é indispensável para modelos de dados sustentáveis e energeticamente eficientes.
Justiça e Equidade
O potencial da IA generativa de produzir respostas inadequadas, imprecisas, ofensivas e tendenciosas é outra grande preocupação no que diz respeito à garantia da ética na IA.
Essa situação pode surgir por conta de problemas como comentários racialmente insensíveis que atingem comunidades marginalizadas e a criação de vídeos e imagens deepfake que produzem afirmações tendenciosas, distorcem a verdade e criam conteúdo que reforça estereótipos e preconceitos comuns.
Responsabilidade
O processo de criação de dados de treinamento e o sistema de implementação de modelos generativos de IA costumam complicar o atributo da responsabilidade da IA.
Em situações de contratempos, polêmicas e circunstâncias inesperadas, uma hierarquia e estrutura de responsabilidade indefinidas resultam em complicações legais, acusações e afetam a credibilidade da marca.
Sem uma hierarquia de responsabilidade consolidada, essa questão pode tomar um rumo negativo em um instante, intensificando a má imagem da marca e prejudicando sua reputação e credibilidade.
Autonomia e Controle
À medida que modelos generativos de IA automatizam tarefas e processos de tomada de decisão em vários campos, como saúde, direito e finanças, isso leva à perda de controle e da autonomia individual. Isso ocorre porque as decisões são conduzidas, principalmente, por algoritmos de IA, em vez do julgamento humano.
Por exemplo, sem intervenção humana, um sistema automatizado de aprovação de empréstimos baseado em IA pode determinar a capacidade de um indivíduo de tomar um empréstimo ou sua solvabilidade com base em sua pontuação de crédito e histórico de pagamento.
Além disso, modelos generativos de IA podem também causar a perda de autonomia profissional. Por exemplo, em áreas como jornalismo, arte e escrita criativa, modelos generativos de IA criam conteúdos que desafiam e competem com o trabalho gerado por seres humanos – levantando preocupações sobre a substituição de empregos e a autonomia profissional.
Como Mitigar Preocupações Éticas com a IA Generativa? Soluções e Melhores Práticas
Embora os avanços e desenvolvimentos tecnológicos que levaram à IA generativa tragam benefícios significativos para a sociedade, abordar questões éticas e assegurar práticas de IA responsáveis, regulamentadas e seguras também é crucial.
Além dos criadores e indivíduos que desenvolvem modelos de IA, é essencial que as empresas que utilizam sistemas generativos de IA para automatizar seus processos garantam as melhores práticas de IA e lidem com as preocupações éticas envolvidas.
A seguir, apresentamos as melhores práticas que organizações e empresas devem adotar para garantir uma IA generativa ética:
✅ Invista em segurança robusta de dados: O uso de soluções de segurança de dados avançadas, como criptografia e anonimização, ajuda a proteger dados confidenciais, dados pessoais e informações sigilosas da empresa, abordando a preocupação ética da violação da privacidade de dados relacionada à IA generativa.
✅ Incorpore diversas perspectivas: As organizações devem incorporar diversas perspectivas nos conjuntos de dados de treinamento de IA para reduzir preconceitos e assegurar a igualdade e decisões justas. Isso inclui envolver indivíduos de diversas origens e experiências e evitar projetar sistemas de IA que prejudiquem ou desfavoreçam determinados grupos de pessoas.
✅ Mantenha-se informado sobre o panorama da IA: O panorama da IA continua a evoluir de forma constante, com novas ferramentas e tecnologias, gerando novas preocupações éticas. Empresas devem investir recursos e tempo para entender novas regulamentações de IA e se manterem informadas sobre as novas mudanças para assegurar as melhores práticas de IA.
✅ Implementação de assinaturas digitais: Outra prática recomendada que especialistas sugerem para superar as preocupações da IA generativa é o uso de assinaturas digitais, marcas d’água e tecnologia blockchain. Isso auxilia a rastrear a origem do conteúdo gerado e a identificar possível uso não autorizado ou adulteração do conteúdo.
✅ Desenvolva diretrizes éticas e políticas de uso claras: Definir diretrizes éticas e políticas de uso claras para o uso e desenvolvimento de IA é fundamental para abordar tópicos como responsabilidade, privacidade e transparência. Além disso, usar estruturas estabelecidas como a Estrutura de Gerenciamento de Risco da IA ou as Diretrizes Éticas da UE para uma IA Confiável ajudam a evitar o uso indevido de dados.
✅ Alinhe-se com padrões globais: As organizações devem se familiarizar com padrões e diretrizes globais como as Diretrizes da Ética da IA da UNESCO que enfatizam quatro valores fundamentais, incluindo os direitos humanos e a dignidade, a diversidade e a inclusão, sociedades pacíficas e justas e um meio ambiente próspero.
✅ Promova a abertura e a transparência: As organizações devem promover o uso da IA e a transparência do desenvolvimento para criar a confiança de seus usuários e clientes. É imprescindível que as empresas definam claramente como os sistemas de IA funcionam, como tomam decisões e como coletam e usam dados.
✅ Avalie e monitore constantemente os sistemas de IA: Por último, avaliar e monitorar de forma constante os sistemas de IA é fundamental para mantê-los alinhados e éticos, de acordo com os padrões e diretrizes de IA definidos. Portanto, as organizações devem realizar avaliações e auditorias regulares de IA para evitar riscos de preocupações éticas.
Conclusão
Embora a IA generativa ofereça benefícios significativos e revolucione diversos setores, compreender e abordar as preocupações éticas envolvidas é fundamental para promover uma utilização responsável e segura da IA.
Preocupações éticas em torno da IA generativa, como violação de direitos autorais, infrações de privacidade de dados, distribuição de conteúdo nocivo e falta de transparência, exigem regulamentações rigorosas e diretrizes éticas para garantir o equilíbrio certo e a utilização sólida e responsável da IA.
Empresas podem aproveitar o potencial da IA em seu máximo, com riscos e preocupações éticas mínimas ou inexistentes, ao implementar e desenvolver regras e diretrizes éticas, e seguir as melhores práticas de IA.
A seguir, confira estatísticas/tendências de IA que irão te surpreender.