AUTORIA

Simon Cornwell

TRADUÇÃO

GERENTE RESPONSÁVEL

Juan Las Casas

DIRETOR RESPONSÁVEL

Murilo Maciel

A publicação do relatório mais recente do Governo do Reino Unido sobre Inteligência Artificial (IA) “A pro-innovation approach to AI regulation” (uma abordagem pró-inovadora para a regulamentação de IA), fornece detalhes sobre como o governo do Reino Unido irá “apoiar a inovação, ao passo que proporciona simultaneamente uma estrutura para garantir que os riscos são identificados e abordados”. O relatório descreve o roteiro e os prazos associados à estrutura, juntamente com uma série de funções de suporte necessárias para garantir uma “resposta proporcional, mas eficiente”, onde equilibra o apoio à inovação, rumo à IA responsável. Nesse artigo, vamos discutir o que essa estrutura contém, como ela se alinha com as pesquisas atuais da área e como as empresas devem melhor investir para alavancar a responsabilidade e eficiência das Inteligências Artificiais.

A estrutura do governo é sustentada por cinco princípios:

  1. Segurança, proteção e robustez;
  2. Transparência e explicabilidade adequadas
  3. Justiça;
  4. Prestação de contas e governança;
  5. Contestação e reparação.

Esses princípios fornecerão aos reguladores uma orientação ética de alto nível para implementar seus próprios regulamentos. O relatório confirma que não haverá um regulador adicional para supervisionar a IA; uma abordagem desagregada será adotada. Os reguladores existentes relevantes assumirão a responsabilidade pela regulamentação da IA em seus domínios. É observado que “esta abordagem recorre à experiência específica do domínio dos reguladores para adaptar a implementação dos princípios ao contexto específico em que a IA é utilizada” e garantirá que o uso da IA se integre às normas e condutas profissionais estabelecidas em cada setor.

Os danos já foram percebidos e estão presentes na sociedade a partir do uso da IA. Com a regulação atrasada em relação aos avanços tecnológicos, as empresas socialmente conscientes precisam ser proativas na ausência de barreiras regulatórias claras. Ao adotar processos e tecnologias adequados, as empresas poderão aproveitar os benefícios comerciais significativos das tecnologias de IA de forma responsável e ética.

Crescimento e penetração da IA na sociedade

O recente crescimento e ênfase na IA apresenta uma série de riscos percebidos e especulados. Pesquisa e financiamento significativos foram investidos no potencial da IA de nível humano e na abordagem do Problema de Controle. As ameaças existenciais à humanidade causadas pela IA rebelde têm sido objeto de muita ficção científica nos últimos tempos, e preocupações dessa natureza existem há séculos.

As preocupações também cresceram com os avanços recentes. Uma carta aberta recente do instituto Future of Life pediu uma pausa de pelo menos 6 meses no treinamento de sistemas de IA mais poderosos do que o GPT-4. Os principais meios de comunicação continuam a divulgar a área com artigos frequentes, e permanecem no foco por um tempo considerável.

Falar de IA de nível humano ganha as manchetes, mas para as empresas que usam modelos de IA contemporâneos, é pouco preocupante.

As opiniões sobre quando (e se) a IA de nível humano será alcançada variam, com uma suposição razoável de que apenas algumas empresas em todo o mundo tem o conjunto de habilidades técnicas, e capacidade computacional, para habilitá-la.

Para a grande maioria das empresas, o foco deve estar nos danos reais perpetuados pela implantação de IA, com exemplos como perdas injustas de empregos por meio de decisões automatizadas ou empréstimos negados a pessoas devido a dados de treinamento tendenciosos; como isso reflete com os clientes, baseando-se no “que constitui um sucesso de IA no presente”, é crucial para as empresas enfatizarem.

IA e Confiança nos Negócios

Em alto nível, os riscos para o sucesso dos negócios do uso irresponsável de IA não são novos, questões como conformidade legal e reputação da marca. Desde o artigo de Milton Friedman argumentando que a única responsabilidade da firma é aumentar seus lucros, as empresas tornaram-se cada vez mais socialmente conscientes. A confiança com os clientes é reconhecida como um fator importante para o crescimento dos negócios, conforme identificado no relatório, e existem vários exemplos de onde um foco apenas no lucro pode ter implicações catastróficas para um negócio.

Um dos primeiros exemplos de consumidores que procuram empresas responsáveis inclui o boicote a empresas que usam fábricas de sweatshop e, mais recentemente, o Facebook perdeu a confiança significativa dos clientes devido ao escândalo da Cambridge Analytic. Terceiros, como o BCorp, passaram a credenciar empresas responsáveis. Acreditamos que a forma como a IA é usada na prática de negócios deve, portanto, se encaixar nessa tendência crescente, mas estabelecida.

Como evidenciado pelo relatório, A necessidade de regulamentação é globalmente reconhecida. A legislação está sendo debatida, como a Lei de IA da UE, ou já foi implementada. Por exemplo, em Nova York, uma auditoria de viés é necessária em uma ferramenta automatizada de decisão de emprego antes de seu uso. No entanto, embora a necessidade de regulamentação seja reconhecida, pesquisas indicam que a maioria das diretrizes é definida por empresas privadas. A pesquisa e as diretrizes éticas de IA continuam para chegar ao mainstream e, em alguns casos, nem sequer são aplicáveis. Aqueles que são mais substanciais, como o NIST AI Risk Management Framework, ainda não são específicos o suficiente para implementação.

Explicabilidade, por exemplo, pode ser teoricamente possível, mas em muitos casos o valor da IA é que ela pode fazer coisas que os humanos simplesmente não conseguem. Não há um significado consensual para a explicabilidade que leve as pessoas a interpretar princípios de maneiras diferentes, por exemplo, para quem um sistema de IA deve ser explicável? Quais informações são necessárias para que uma explicação seja suficiente? A que nível de conhecimento e compreensão de IA de um público isso deve ser?

A estrutura do Governo do Reino Unido assenta em cinco princípios, mas na ausência de orientação prática de reguladores específicos, tais princípios fornecem pouco valor às empresas. De fato, a maioria das orientações publicadas se concentra em temas semelhantes com valores e princípios consistentes, com a tradução desses valores normativos em ações tangíveis sendo um obstáculo para muitos. Alguns pesquisadores a rotulam como “a parte verdadeiramente difícil da ética”.

Não é surpreendente, portanto, que o movimento prático em direção à IA Responsável (RAI) seja complicado. Há poucos requisitos regulatórios a serem cumpridos, e embora alguns regulamentos pré-existentes, como o Artigo 22 do GDPR, a aplicabilidade e exigibilidade são limitadas. Combinar esta ausência de orientações acionáveis com a publicação de orientações de alto nível e princípios morais subjetivos, as empresas podem não saber por onde começar a jornada. Um estudo mostrou que 79% dos trabalhadores de tecnologia gostariam de recursos mais práticos para ajudá-los com considerações éticas. Na verdade, os próprios princípios podem ser tão amplos que teoricamente podem ser usados para justificar casos de uso de IA que parecem evidentemente antiéticos.

Dada a tecnologia avançada associada à IA, muitas vezes é vista como um problema associado às equipes de TI. A natureza vaga dos princípios, e mesmo dos códigos de conduta, permite um viés de retrocesso e pode criar o risco de indiferença.  As decisões técnicas terão geralmente resultados reais para os negócios. Múltiplas definições matemáticas de equidade foram formuladas, mas elas não apenas estão em conflito entre si, elas também demonstraram levar a uma menor precisão preditiva e, quando usadas para decisões de empréstimo, uma diminuição do lucro para o credor. Vale a pena ser justo dessa forma?

As empresas devem abordar os problemas decorrentes do uso de IA ao nível corporativo e mover essas questões para fora das equipes técnicas. Deixar os desenvolvedores marcarem sua própria lição de casa pode ser problemático por uma série de razões, especialmente devido a um foco frequente em melhorar exclusivamente as métricas de desempenho.

Na prática, há uma série de áreas que as empresas podem explorar para começar, ou continuar, a jornada para a IA Responsável, construindo confiança com o público e os consumidores:

  • Realizar uma avaliação dos casos de uso de IA existentes e propor novas soluções;
    • Devemos mesmo usar IA para isso?
    • Um algoritmo mais opaco vale uma ligeira melhoria na precisão preditiva?
    • Nossos sistemas de IA fazem o que foram projetados para fazer?
  • Implementar e incorporar códigos de conduta e orientação de IA na cultura organizacional;

  • Formalizar processos de desenvolvimento de modelos de IA;
    • Incorporar a ética da IA nos mecanismos de governança da IA;
    • Exigir aprovação para quaisquer alterações em sistemas de IA existentes ou implementação de novos sistemas de IA;
  • Garantir que as interações com os sistemas de IA sejam rotuladas, com processos claros para que os consumidores obtenham informações sobre o modelo ou solicitem uma revisão humana;

  • Criar um catálogo de modelos de IA, com um metamodelo de IA comum;

  • Os cartões de modelo, como os utilizados pelo Hugging Face, contêm informações úteis e acessíveis sobre o modelo;

  • Defina e distribua funções e responsabilidades claras:
    • Quem é responsável pelos resultados de um modelo?
    • A quem se pode atribuir as decisões?

Crie e capacite funções nos domínios de negócios, técnico, de governança e ético

O mais recente relatório do governo do Reino Unido é uma adição bem-vinda ao discurso cada vez maior em torno da necessidade de regulamentação sobre o uso de IA na sociedade. Enquanto ele define os fundamentos, ele não tem a orientação detalhada sobre como mudar para a IA responsável agora. Acreditamos que nossos clientes precisam se antecipar à legislação, que certamente alcançará o atraso, e se posicionar para maximizar o valor da IA de forma ética.

Leia Também

Ativos Virtuais

Ativos virtuais são a representação digital de valor que pode ser negociada ou transferida por meios eletrônicos e utilizada para realização de pagamentos ou com propósito de investimento

Leia +

Ativos Virtuais

Ativos virtuais são a representação digital de valor que pode ser negociada ou transferida por meios eletrônicos e utilizada para realização de pagamentos ou com propósito de investimento

Leia +

Ativos Virtuais

Ativos virtuais são a representação digital de valor que pode ser negociada ou transferida por meios eletrônicos e utilizada para realização de pagamentos ou com propósito de investimento

Leia +