10 dilemas éticos da IA ​​generativa que não podemos ignorar

Nenhum setor ou indústria fica imune à revolucionária Inteligência Artificial (IA) e às suas capacidades. E é a IA especialmente generativa que cria agitação entre empresas, indivíduos e líderes de mercado na transformação de operações mundanas.

A impressionante capacidade da IA ​​generativa de gerar conteúdo diversificado e de alta qualidade – de texto e imagens a vídeos e música – impactou significativamente vários campos.

De acordo com a pesquisa da Acumen, espera-se que o mercado global de IA generativa atinja US$ 208,8 bilhões até 2032crescendo a um CAGR de 35,1% entre 2023 e 2032.

No entanto, o crescimento desta poderosa tecnologia traz consigo diversas preocupações e questões éticas que não podemos ignorar, especialmente aquelas relacionadas à privacidade de dados, direitos autorais, deepfakes e questões de conformidade.

Neste artigo, nos aprofundamos nessas preocupações éticas da IA ​​generativa – o que são e como podemos evitá-las. Mas primeiro, vejamos as Diretrizes de Ética que a UE formou em 2019 para uma IA confiável.

Diretrizes de Ética para IA Confiável

Em 2019, um grupo de especialistas em IA de alto nível estabeleceu Diretrizes de Ética para Inteligência Artificial (IA) Confiável.

Esta diretriz foi publicada para abordar os perigos potenciais da IA ​​na época, incluindo violações de dados e privacidade, práticas discriminatórias, ameaça de impactos prejudiciais a terceiros, IA desonesta e atividades fraudulentas.

A diretriz sugere estas três áreas nas quais uma IA confiável deve confiar:

  • Ético: Deve respeitar valores e princípios éticos.
  • Legal: Deve respeitar todas as leis e regulamentos aplicáveis.
  • Robusto: Deve garantir uma segurança robusta do ponto de vista da segurança técnica e do ambiente social.

Além disso, a diretriz também destacou sete requisitos principais que um sistema de IA deve cumprir para ser considerado confiável. Os requisitos são os listados:

  • Supervisão humana: Um sistema de IA confiável deve capacitar a supervisão e a inteligência humanas – permitindo que os humanos tomem decisões informadas de acordo com os seus direitos fundamentais.
  • Segurança técnica e robustez: os sistemas de IA devem ser resilientes, precisos, confiáveis ​​e reprodutíveis, além de garantir um plano alternativo caso algo dê errado. Isso ajuda a prevenir e minimizar os riscos de qualquer dano não intencional.
  • Transparência de dados: Um sistema de dados de IA precisa ser transparente e ter a capacidade de explicar as decisões que toma às partes interessadas envolvidas. Além disso, os seres humanos devem estar conscientes e informados das capacidades e limitações do sistema de IA.
  • Privacidade e governação de dados: Além de garantir a segurança dos dados, um sistema de IA deve garantir medidas adequadas de governação de dados, tendo em conta a qualidade dos dados, a integridade e o acesso legítimo aos dados.
  • Prestação de contas: Os sistemas de IA devem implementar mecanismos que garantam prestação de contas, responsabilidade e audibilidade que permitam a avaliação de dados, algoritmos ou processos de design.
  • Diversidade e não discriminação: Uma IA confiável deve evitar preconceitos injustos, que podem ter implicações negativas. Em vez disso, deve garantir a diversidade e a justiça e ser acessível a todos, independentemente da sua deficiência.
  • Bem-estar social e ambiental: Os sistemas de IA devem ser ecológicos e sustentáveis, garantindo que beneficiam também as gerações futuras.
  • Embora estas directrizes tenham tido um impacto significativo na indústria da IA, ainda existem preocupações e estão mesmo a aumentar com o aumento da IA ​​generativa.

    IA generativa e o aumento das preocupações éticas

    Ao falar sobre ética em IA, a IA generativa traz um conjunto único de desafios, especialmente com o advento de modelos generativos como OpenAI e ChatGPT.

    A natureza específica da IA ​​generativa dá origem a preocupações éticas, principalmente em áreas que incluem conformidade regulamentar, segurança e privacidade de dados, controlo, preocupações ambientais e direitos de autor e propriedade de dados.

      Obtenha texto para expandir / recolher no clique no MS Word 2013

    Por exemplo, a IA generativa pode gerar textos semelhantes aos humanos, incluindo imagens e vídeos, levantando preocupações sobre falsificações profundas, a geração de notícias falsas e outros conteúdos maliciosos que podem causar danos e espalhar desinformação. Além disso, os indivíduos também podem sentir uma perda de controlo nas decisões dos modelos de IA com base nos seus algoritmos.

    Geoffrey Hinton, o chamado padrinho da IA, disse que os desenvolvedores de IA devem fazer esforços para entender como os modelos de IA podem tentar tirar o controle dos humanos. Da mesma forma, muitos especialistas e pesquisadores em IA estão preocupados com as capacidades e a ética da IA.

    Cientista-chefe de IA do Facebook e professor da NYU Yann LeCun diz que as questões e preocupações que a IA poderia levantar para a humanidade são “absurdamente ridículas”.

    Como a IA generativa concede às organizações e aos indivíduos capacidades sem precedentes para alterar e manipular dados, abordar estas questões é da maior importância.

    Vejamos essas preocupações com mais detalhes.

    Geração e distribuição de conteúdo prejudicial

    Com base nas instruções de texto que fornecemos, os sistemas de IA criam e geram automaticamente conteúdo que pode ser preciso e útil, mas também prejudicial.

    Os sistemas generativos de IA podem gerar conteúdo prejudicial intencionalmente ou não devido a motivos como alucinações de IA. As situações mais preocupantes incluem a tecnologia deepfake, que cria imagens, textos, áudio e vídeos falsos, manipulando a identidade e a voz de uma pessoa para espalhar discurso de ódio.

    Exemplos de geração e distribuição de conteúdo prejudicial de IA podem incluir:

    • Um e-mail gerado por IA ou uma postagem em mídia social enviada e publicada em nome de uma organização que pode conter linguagem ofensiva e sensata, prejudicando os sentimentos de seus funcionários ou clientes.
    • Os invasores também podem usar deepfake para criar e distribuir vídeos gerados por IA apresentando figuras públicas, como políticos ou atores, dizendo coisas que na verdade não disseram. Um vídeo com Barrack Obama é um dos exemplos mais populares de deepfake.

    • Um exemplo de deepfake de áudio é quando, recentemente, um golpista fingiu um sequestro por clonando a voz de uma jovem para pedir resgate à mãe.

    A propagação de tais conteúdos nocivos pode ter consequências graves e implicações negativas para a reputação e credibilidade de um indivíduo e de uma organização.

    Além disso, o conteúdo gerado pela IA pode amplificar os preconceitos ao aprender com os conjuntos de dados de formação, gerando mais conteúdo tendencioso, odioso e prejudicial – tornando-o um dos dilemas éticos mais preocupantes da IA ​​generativa.

    Como os modelos generativos de IA são treinados com base em muitos dados, isso às vezes pode resultar na ambiguidade de autoridade e em questões de direitos autorais.

    Quando as ferramentas de IA geram imagens ou códigos e criam vídeos, a fonte de dados do conjunto de dados de formação a que se referem pode ser desconhecida, pelo que pode infringir os direitos de propriedade intelectual ou os direitos de autor de outros indivíduos ou organizações.

    Estas infrações podem resultar em danos financeiros, jurídicos e de reputação para uma organização, resultando em processos judiciais dispendiosos e em reações públicas.

    Violações de privacidade de dados

    Os dados de treinamento subjacentes dos Modelos de Linguagem Grande de IA Generativa (LLMs) podem conter informações confidenciais e pessoais, também chamadas de Informações de Identificação Pessoal (PII).

    O Departamento do Trabalho dos EUA define PII como os dados que identificam diretamente um indivíduo com detalhes como nome, endereço, endereço de e-mail, número de telefone, número de seguro social ou outro código ou número de identidade pessoal.

    As violações de dados ou o uso não autorizado desses dados podem levar ao roubo de identidade, ao uso indevido de dados, à manipulação ou à discriminação, gerando consequências legais.

    Por exemplo, um modelo de IA, dados de histórico médico pessoal treinado podem inadvertidamente gerar um perfil que pode se assemelhar muito a um paciente real – levando a preocupações de segurança e privacidade de dados e violação do regulamento da Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA).

      Como treinar o Face ID para ser mais preciso

    Amplificação do preconceito existente

    Assim como um modelo de IA, mesmo um modelo de IA generativo é tão bom quanto o conjunto de dados de treinamento no qual é treinado.

    Portanto, se o conjunto de dados de treinamento consistir em preconceitos, a IA generativa amplifica esse preconceito existente gerando resultados tendenciosos. Esses preconceitos geralmente prevalecem em relação aos preconceitos sociais existentes e podem conter abordagens racistas, sexistas ou capacitistas nas comunidades online.

    De acordo com Relatório do Índice de IA de 2022, 2021 desenvolveu um modelo de 280 bilhões de parâmetros que representa um aumento de 29% nos níveis de viés e toxicidade. Assim, embora os AI LLM estejam a tornar-se mais capazes do que nunca, também estão a tornar-se mais tendenciosos com base nos dados de formação existentes.

    Impacto nas funções e no moral da força de trabalho

    Os modelos generativos de IA melhoram a produtividade da força de trabalho automatizando atividades rotineiras e executando tarefas diárias como redação, codificação, análise, geração de conteúdo, resumo, suporte ao cliente e muito mais.

    Embora, por um lado, isto ajude a aumentar a produtividade da força de trabalho, por outro lado, o crescimento da IA ​​generativa também implica a perda de empregos. De acordo com Relatório da McKinseya transformação da força de trabalho e a adoção da IA ​​estimam que metade das tarefas e atividades atuais da força de trabalho poderiam ser automatizadas entre 2030 e 2060, sendo 2045 o ano intermediário.

    Embora a adoção da IA ​​generativa signifique perda de força de trabalho, isso não significa que haja qualquer interrupção ou necessidade de conter a transformação da IA. Em vez disso, os funcionários e os trabalhadores terão de melhorar as suas competências e as organizações terão de apoiar os trabalhadores nas transições profissionais sem perderem os seus empregos.

    Falta de transparência e explicabilidade

    A transparência é um dos princípios fundamentais da IA ​​ética. No entanto, como a IA generativa é uma caixa preta, opaca e altamente complexa, é um desafio alcançar um alto nível de transparência.

    A natureza complexa da IA ​​generativa torna difícil determinar como se chegou a uma resposta/resultado específico ou mesmo compreender os fatores que contribuíram para a sua tomada de decisão.

    Esta falta de explicabilidade e clareza levanta frequentemente preocupações sobre a utilização e manipulação indevida de dados, a precisão e fiabilidade dos resultados e a qualidade dos testes. Esta é uma preocupação particularmente significativa para aplicações e software de alto risco.

    Impacto ambiental

    Os modelos generativos de IA requerem uma quantidade substancial de poder computacional, especialmente aqueles com escalas maiores. Isto faz com que estes modelos consumam muita energia, o que tem potenciais impactos ambientais de alto risco, incluindo emissões de carbono e aquecimento global.

    Embora seja um fator negligenciado da IA ​​ética, garantir a compatibilidade ecológica é necessário para modelos de dados sustentáveis ​​e energeticamente eficientes.

    Justiça e Equidade

    O potencial da IA ​​generativa para produzir respostas inadequadas, imprecisas, ofensivas e tendenciosas é outra grande preocupação no que diz respeito à garantia da ética na IA.

    Pode surgir devido a questões como comentários racialmente insensíveis que afetam as comunidades marginalizadas e a criação de vídeos e imagens deepfake que produzem afirmações tendenciosas, distorcem a verdade e geram conteúdo que prejudica estereótipos e preconceitos comuns.

    Responsabilidade

    A criação de dados de treinamento e o pipeline de implantação de modelos generativos de IA muitas vezes complicam o atributo de responsabilidade da IA.

    Em casos de contratempos, controvérsias e circunstâncias sem precedentes, uma hierarquia e uma estrutura de responsabilidade indefinidas resultam em complicações jurídicas, acusações e prejudicam a credibilidade da marca.

    Sem uma hierarquia de responsabilização sólida, esta questão pode tomar um rumo negativo num piscar de olhos, intensificando a imagem da marca e prejudicando a reputação e a credibilidade da marca.

    Autonomia e Controle

    À medida que os modelos generativos de IA automatizam tarefas e processos de tomada de decisão em vários campos, como cuidados de saúde, direito e finanças, isso resulta na perda de controlo e de autonomia individual. Isso ocorre porque as decisões são principalmente conduzidas por algoritmos de IA, em vez de julgamento humano.

      8 melhores ferramentas e software de backup e configuração de rede

    Por exemplo, sem intervenção humana, um sistema automatizado de aprovação de empréstimos baseado em IA pode determinar a capacidade de um indivíduo de contrair um empréstimo ou a solvabilidade com base na sua pontuação de crédito e histórico de reembolso.

    Além disso, os modelos generativos de IA também conduzem por vezes à perda de autonomia profissional. Por exemplo, em domínios como o jornalismo, a arte e a escrita criativa, os modelos generativos de IA criam conteúdos que desafiam e competem com o trabalho gerado por seres humanos – levantando preocupações sobre a deslocação de empregos e a autonomia profissional.

    Como mitigar preocupações éticas com IA generativa? Soluções e Melhores Práticas

    Embora os desenvolvimentos e avanços tecnológicos que levaram à IA generativa beneficiem enormemente a sociedade, abordar questões éticas e garantir práticas de IA responsáveis, regulamentadas e seguras também são cruciais.

    Além dos criadores e indivíduos do modelo de IA, também é fundamental que as empresas que utilizam sistemas generativos de IA automatizem os seus processos para garantir as melhores práticas de IA e abordar as preocupações éticas envolvidas.

    Aqui estão as melhores práticas que as organizações e empresas devem adotar para garantir uma IA generativa ética:

    ✅ Invista em segurança robusta de dados: o uso de soluções avançadas de segurança de dados, como criptografia e anonimato, ajuda a proteger dados confidenciais, dados pessoais e informações confidenciais da empresa, abordando a preocupação ética da violação da privacidade de dados relacionada à IA generativa.

    ✅ Incorporar diversas perspectivas: As organizações devem incorporar diversas perspectivas no conjunto de dados de treinamento de IA para reduzir preconceitos e garantir equidade e tomada de decisão justa. Isto inclui envolver indivíduos de diversas origens e experiências e evitar conceber sistemas de IA que prejudiquem ou prejudiquem determinados grupos de indivíduos.

    ✅ Manter-se informado sobre o panorama da IA: O panorama da IA ​​continua a evoluir de forma consistente com novas ferramentas e tecnologias, dando origem a novas preocupações éticas. As empresas devem investir recursos e tempo para compreender os novos regulamentos de IA e manter-se informadas sobre as novas mudanças para garantir as melhores práticas de IA.

    ✅ Implementação de assinaturas digitais: Outra prática recomendada que os especialistas sugerem para superar as preocupações de IA generativa é o uso de assinaturas digitais, marcas d’água e tecnologia blockchain. Isso ajuda a rastrear a origem do conteúdo gerado e a identificar possível uso não autorizado ou adulteração do conteúdo.

    ✅ Desenvolva diretrizes éticas e políticas de uso claras: Estabelecer diretrizes éticas e políticas de uso claras para o uso e desenvolvimento de IA é crucial para cobrir tópicos como responsabilidade, privacidade e transparência. Além disso, utilizando quadros estabelecidos como o Estrutura de gerenciamento de risco de IA ou o Diretriz Ética da UE para IA Confiável ajuda a evitar o uso indevido de dados.

    ✅ Alinhar-se com os padrões globais: As organizações devem se familiarizar com os padrões e diretrizes globais como o Ética da IA ​​da UNESCO diretrizes que enfatizam quatro valores fundamentais, incluindo os direitos humanos e a dignidade, a diversidade e a inclusão, as sociedades pacíficas e justas e o florescimento ambiental.

    ✅ Promova a abertura e a transparência: as organizações devem promover o uso da IA ​​e a transparência do desenvolvimento para construir a confiança de seus usuários e clientes. É essencial que as empresas definam claramente o funcionamento dos sistemas de IA, como tomam decisões e como recolhem e utilizam dados.

    ✅ Avaliar e monitorar consistentemente os sistemas de IA: por último, avaliar e monitorar consistentemente os sistemas de IA é crucial para mantê-los alinhados e éticos de acordo com os padrões e diretrizes de IA definidos. Portanto, as organizações devem realizar avaliações e auditorias regulares de IA para evitar riscos de preocupações éticas.

    Conclusão

    Embora a IA generativa ofereça benefícios significativos e revolucione vários setores, compreender e abordar as preocupações éticas envolventes é crucial para promover a utilização responsável e segura da IA.

    As preocupações éticas em torno da IA ​​generativa, como a violação de direitos de autor, as violações da privacidade de dados, a distribuição de conteúdos nocivos e a falta de transparência, exigem regulamentos rigorosos e directrizes éticas para garantir o equilíbrio certo e a utilização robusta e responsável da IA.

    As organizações podem aproveitar o poder da IA ​​ao seu potencial máximo com riscos e preocupações éticos mínimos ou inexistentes, implementando e desenvolvendo regras e diretrizes éticas e seguindo as melhores práticas de IA.

    A seguir, verifique as estatísticas/tendências de IA que vão te surpreender.