Nenhum setor ou indústria fica imune à revolucionária Inteligência Artificial (IA) e às suas capacidades. E é a IA especialmente generativa que cria agitação entre empresas, indivíduos e líderes de mercado na transformação de operações mundanas.
A impressionante capacidade da IA generativa de gerar conteúdo diversificado e de alta qualidade – de texto e imagens a vídeos e música – impactou significativamente vários campos.
De acordo com a pesquisa da Acumen, espera-se que o mercado global de IA generativa atinja US$ 208,8 bilhões até 2032crescendo a um CAGR de 35,1% entre 2023 e 2032.
No entanto, o crescimento desta poderosa tecnologia traz consigo diversas preocupações e questões éticas que não podemos ignorar, especialmente aquelas relacionadas à privacidade de dados, direitos autorais, deepfakes e questões de conformidade.
Neste artigo, nos aprofundamos nessas preocupações éticas da IA generativa – o que são e como podemos evitá-las. Mas primeiro, vejamos as Diretrizes de Ética que a UE formou em 2019 para uma IA confiável.
últimas postagens
Diretrizes de Ética para IA Confiável
Em 2019, um grupo de especialistas em IA de alto nível estabeleceu Diretrizes de Ética para Inteligência Artificial (IA) Confiável.
Esta diretriz foi publicada para abordar os perigos potenciais da IA na época, incluindo violações de dados e privacidade, práticas discriminatórias, ameaça de impactos prejudiciais a terceiros, IA desonesta e atividades fraudulentas.
A diretriz sugere estas três áreas nas quais uma IA confiável deve confiar:
- Ético: Deve respeitar valores e princípios éticos.
- Legal: Deve respeitar todas as leis e regulamentos aplicáveis.
- Robusto: Deve garantir uma segurança robusta do ponto de vista da segurança técnica e do ambiente social.
Além disso, a diretriz também destacou sete requisitos principais que um sistema de IA deve cumprir para ser considerado confiável. Os requisitos são os listados:
Embora estas directrizes tenham tido um impacto significativo na indústria da IA, ainda existem preocupações e estão mesmo a aumentar com o aumento da IA generativa.
IA generativa e o aumento das preocupações éticas
Ao falar sobre ética em IA, a IA generativa traz um conjunto único de desafios, especialmente com o advento de modelos generativos como OpenAI e ChatGPT.
A natureza específica da IA generativa dá origem a preocupações éticas, principalmente em áreas que incluem conformidade regulamentar, segurança e privacidade de dados, controlo, preocupações ambientais e direitos de autor e propriedade de dados.
Por exemplo, a IA generativa pode gerar textos semelhantes aos humanos, incluindo imagens e vídeos, levantando preocupações sobre falsificações profundas, a geração de notícias falsas e outros conteúdos maliciosos que podem causar danos e espalhar desinformação. Além disso, os indivíduos também podem sentir uma perda de controlo nas decisões dos modelos de IA com base nos seus algoritmos.
Geoffrey Hinton, o chamado padrinho da IA, disse que os desenvolvedores de IA devem fazer esforços para entender como os modelos de IA podem tentar tirar o controle dos humanos. Da mesma forma, muitos especialistas e pesquisadores em IA estão preocupados com as capacidades e a ética da IA.
Cientista-chefe de IA do Facebook e professor da NYU Yann LeCun diz que as questões e preocupações que a IA poderia levantar para a humanidade são “absurdamente ridículas”.
Como a IA generativa concede às organizações e aos indivíduos capacidades sem precedentes para alterar e manipular dados, abordar estas questões é da maior importância.
Vejamos essas preocupações com mais detalhes.
Geração e distribuição de conteúdo prejudicial
Com base nas instruções de texto que fornecemos, os sistemas de IA criam e geram automaticamente conteúdo que pode ser preciso e útil, mas também prejudicial.
Os sistemas generativos de IA podem gerar conteúdo prejudicial intencionalmente ou não devido a motivos como alucinações de IA. As situações mais preocupantes incluem a tecnologia deepfake, que cria imagens, textos, áudio e vídeos falsos, manipulando a identidade e a voz de uma pessoa para espalhar discurso de ódio.
Exemplos de geração e distribuição de conteúdo prejudicial de IA podem incluir:
- Um e-mail gerado por IA ou uma postagem em mídia social enviada e publicada em nome de uma organização que pode conter linguagem ofensiva e sensata, prejudicando os sentimentos de seus funcionários ou clientes.
- Os invasores também podem usar deepfake para criar e distribuir vídeos gerados por IA apresentando figuras públicas, como políticos ou atores, dizendo coisas que na verdade não disseram. Um vídeo com Barrack Obama é um dos exemplos mais populares de deepfake.
- Um exemplo de deepfake de áudio é quando, recentemente, um golpista fingiu um sequestro por clonando a voz de uma jovem para pedir resgate à mãe.
A propagação de tais conteúdos nocivos pode ter consequências graves e implicações negativas para a reputação e credibilidade de um indivíduo e de uma organização.
Além disso, o conteúdo gerado pela IA pode amplificar os preconceitos ao aprender com os conjuntos de dados de formação, gerando mais conteúdo tendencioso, odioso e prejudicial – tornando-o um dos dilemas éticos mais preocupantes da IA generativa.
Violação de direitos autorais
Como os modelos generativos de IA são treinados com base em muitos dados, isso às vezes pode resultar na ambiguidade de autoridade e em questões de direitos autorais.
Quando as ferramentas de IA geram imagens ou códigos e criam vídeos, a fonte de dados do conjunto de dados de formação a que se referem pode ser desconhecida, pelo que pode infringir os direitos de propriedade intelectual ou os direitos de autor de outros indivíduos ou organizações.
Estas infrações podem resultar em danos financeiros, jurídicos e de reputação para uma organização, resultando em processos judiciais dispendiosos e em reações públicas.
Violações de privacidade de dados
Os dados de treinamento subjacentes dos Modelos de Linguagem Grande de IA Generativa (LLMs) podem conter informações confidenciais e pessoais, também chamadas de Informações de Identificação Pessoal (PII).
O Departamento do Trabalho dos EUA define PII como os dados que identificam diretamente um indivíduo com detalhes como nome, endereço, endereço de e-mail, número de telefone, número de seguro social ou outro código ou número de identidade pessoal.
As violações de dados ou o uso não autorizado desses dados podem levar ao roubo de identidade, ao uso indevido de dados, à manipulação ou à discriminação, gerando consequências legais.
Por exemplo, um modelo de IA, dados de histórico médico pessoal treinado podem inadvertidamente gerar um perfil que pode se assemelhar muito a um paciente real – levando a preocupações de segurança e privacidade de dados e violação do regulamento da Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA).
Amplificação do preconceito existente
Assim como um modelo de IA, mesmo um modelo de IA generativo é tão bom quanto o conjunto de dados de treinamento no qual é treinado.
Portanto, se o conjunto de dados de treinamento consistir em preconceitos, a IA generativa amplifica esse preconceito existente gerando resultados tendenciosos. Esses preconceitos geralmente prevalecem em relação aos preconceitos sociais existentes e podem conter abordagens racistas, sexistas ou capacitistas nas comunidades online.
De acordo com Relatório do Índice de IA de 2022, 2021 desenvolveu um modelo de 280 bilhões de parâmetros que representa um aumento de 29% nos níveis de viés e toxicidade. Assim, embora os AI LLM estejam a tornar-se mais capazes do que nunca, também estão a tornar-se mais tendenciosos com base nos dados de formação existentes.
Impacto nas funções e no moral da força de trabalho
Os modelos generativos de IA melhoram a produtividade da força de trabalho automatizando atividades rotineiras e executando tarefas diárias como redação, codificação, análise, geração de conteúdo, resumo, suporte ao cliente e muito mais.
Embora, por um lado, isto ajude a aumentar a produtividade da força de trabalho, por outro lado, o crescimento da IA generativa também implica a perda de empregos. De acordo com Relatório da McKinseya transformação da força de trabalho e a adoção da IA estimam que metade das tarefas e atividades atuais da força de trabalho poderiam ser automatizadas entre 2030 e 2060, sendo 2045 o ano intermediário.
Embora a adoção da IA generativa signifique perda de força de trabalho, isso não significa que haja qualquer interrupção ou necessidade de conter a transformação da IA. Em vez disso, os funcionários e os trabalhadores terão de melhorar as suas competências e as organizações terão de apoiar os trabalhadores nas transições profissionais sem perderem os seus empregos.
Falta de transparência e explicabilidade
A transparência é um dos princípios fundamentais da IA ética. No entanto, como a IA generativa é uma caixa preta, opaca e altamente complexa, é um desafio alcançar um alto nível de transparência.
A natureza complexa da IA generativa torna difícil determinar como se chegou a uma resposta/resultado específico ou mesmo compreender os fatores que contribuíram para a sua tomada de decisão.
Esta falta de explicabilidade e clareza levanta frequentemente preocupações sobre a utilização e manipulação indevida de dados, a precisão e fiabilidade dos resultados e a qualidade dos testes. Esta é uma preocupação particularmente significativa para aplicações e software de alto risco.
Impacto ambiental
Os modelos generativos de IA requerem uma quantidade substancial de poder computacional, especialmente aqueles com escalas maiores. Isto faz com que estes modelos consumam muita energia, o que tem potenciais impactos ambientais de alto risco, incluindo emissões de carbono e aquecimento global.
Embora seja um fator negligenciado da IA ética, garantir a compatibilidade ecológica é necessário para modelos de dados sustentáveis e energeticamente eficientes.
Justiça e Equidade
O potencial da IA generativa para produzir respostas inadequadas, imprecisas, ofensivas e tendenciosas é outra grande preocupação no que diz respeito à garantia da ética na IA.
Pode surgir devido a questões como comentários racialmente insensíveis que afetam as comunidades marginalizadas e a criação de vídeos e imagens deepfake que produzem afirmações tendenciosas, distorcem a verdade e geram conteúdo que prejudica estereótipos e preconceitos comuns.
Responsabilidade
A criação de dados de treinamento e o pipeline de implantação de modelos generativos de IA muitas vezes complicam o atributo de responsabilidade da IA.
Em casos de contratempos, controvérsias e circunstâncias sem precedentes, uma hierarquia e uma estrutura de responsabilidade indefinidas resultam em complicações jurídicas, acusações e prejudicam a credibilidade da marca.
Sem uma hierarquia de responsabilização sólida, esta questão pode tomar um rumo negativo num piscar de olhos, intensificando a imagem da marca e prejudicando a reputação e a credibilidade da marca.
Autonomia e Controle
À medida que os modelos generativos de IA automatizam tarefas e processos de tomada de decisão em vários campos, como cuidados de saúde, direito e finanças, isso resulta na perda de controlo e de autonomia individual. Isso ocorre porque as decisões são principalmente conduzidas por algoritmos de IA, em vez de julgamento humano.
Por exemplo, sem intervenção humana, um sistema automatizado de aprovação de empréstimos baseado em IA pode determinar a capacidade de um indivíduo de contrair um empréstimo ou a solvabilidade com base na sua pontuação de crédito e histórico de reembolso.
Além disso, os modelos generativos de IA também conduzem por vezes à perda de autonomia profissional. Por exemplo, em domínios como o jornalismo, a arte e a escrita criativa, os modelos generativos de IA criam conteúdos que desafiam e competem com o trabalho gerado por seres humanos – levantando preocupações sobre a deslocação de empregos e a autonomia profissional.
Como mitigar preocupações éticas com IA generativa? Soluções e Melhores Práticas
Embora os desenvolvimentos e avanços tecnológicos que levaram à IA generativa beneficiem enormemente a sociedade, abordar questões éticas e garantir práticas de IA responsáveis, regulamentadas e seguras também são cruciais.
Além dos criadores e indivíduos do modelo de IA, também é fundamental que as empresas que utilizam sistemas generativos de IA automatizem os seus processos para garantir as melhores práticas de IA e abordar as preocupações éticas envolvidas.
Aqui estão as melhores práticas que as organizações e empresas devem adotar para garantir uma IA generativa ética:
✅ Invista em segurança robusta de dados: o uso de soluções avançadas de segurança de dados, como criptografia e anonimato, ajuda a proteger dados confidenciais, dados pessoais e informações confidenciais da empresa, abordando a preocupação ética da violação da privacidade de dados relacionada à IA generativa.
✅ Incorporar diversas perspectivas: As organizações devem incorporar diversas perspectivas no conjunto de dados de treinamento de IA para reduzir preconceitos e garantir equidade e tomada de decisão justa. Isto inclui envolver indivíduos de diversas origens e experiências e evitar conceber sistemas de IA que prejudiquem ou prejudiquem determinados grupos de indivíduos.
✅ Manter-se informado sobre o panorama da IA: O panorama da IA continua a evoluir de forma consistente com novas ferramentas e tecnologias, dando origem a novas preocupações éticas. As empresas devem investir recursos e tempo para compreender os novos regulamentos de IA e manter-se informadas sobre as novas mudanças para garantir as melhores práticas de IA.
✅ Implementação de assinaturas digitais: Outra prática recomendada que os especialistas sugerem para superar as preocupações de IA generativa é o uso de assinaturas digitais, marcas d’água e tecnologia blockchain. Isso ajuda a rastrear a origem do conteúdo gerado e a identificar possível uso não autorizado ou adulteração do conteúdo.
✅ Desenvolva diretrizes éticas e políticas de uso claras: Estabelecer diretrizes éticas e políticas de uso claras para o uso e desenvolvimento de IA é crucial para cobrir tópicos como responsabilidade, privacidade e transparência. Além disso, utilizando quadros estabelecidos como o Estrutura de gerenciamento de risco de IA ou o Diretriz Ética da UE para IA Confiável ajuda a evitar o uso indevido de dados.
✅ Alinhar-se com os padrões globais: As organizações devem se familiarizar com os padrões e diretrizes globais como o Ética da IA da UNESCO diretrizes que enfatizam quatro valores fundamentais, incluindo os direitos humanos e a dignidade, a diversidade e a inclusão, as sociedades pacíficas e justas e o florescimento ambiental.
✅ Promova a abertura e a transparência: as organizações devem promover o uso da IA e a transparência do desenvolvimento para construir a confiança de seus usuários e clientes. É essencial que as empresas definam claramente o funcionamento dos sistemas de IA, como tomam decisões e como recolhem e utilizam dados.
✅ Avaliar e monitorar consistentemente os sistemas de IA: por último, avaliar e monitorar consistentemente os sistemas de IA é crucial para mantê-los alinhados e éticos de acordo com os padrões e diretrizes de IA definidos. Portanto, as organizações devem realizar avaliações e auditorias regulares de IA para evitar riscos de preocupações éticas.
Conclusão
Embora a IA generativa ofereça benefícios significativos e revolucione vários setores, compreender e abordar as preocupações éticas envolventes é crucial para promover a utilização responsável e segura da IA.
As preocupações éticas em torno da IA generativa, como a violação de direitos de autor, as violações da privacidade de dados, a distribuição de conteúdos nocivos e a falta de transparência, exigem regulamentos rigorosos e directrizes éticas para garantir o equilíbrio certo e a utilização robusta e responsável da IA.
As organizações podem aproveitar o poder da IA ao seu potencial máximo com riscos e preocupações éticos mínimos ou inexistentes, implementando e desenvolvendo regras e diretrizes éticas e seguindo as melhores práticas de IA.
A seguir, verifique as estatísticas/tendências de IA que vão te surpreender.