Ética, confiança e explicabilidade na Inteligência Artificial (IA)

Desvendar a caixa negra da IA e compreender a ética da IA

À medida que a inteligência artificial (IA) continua a evoluir a um ritmo acelerado, passando a fazer parte de cada vez mais processos empresariais, e à medida que as pressões regulamentares e dos clientes continuam a aumentar, temos de abordar algumas questões éticas muito profundas. Os designers e programadores de IA, em particular, podem ajudar a reduzir o preconceito e a discriminação, abordando estas áreas de consideração ética e utilizando kits de ferramentas de apoio.

Se lhe dissessem que o seu pedido de empréstimo tinha sido rejeitado sem qualquer razão aparente, aceitaria essa decisão? E se soubesse que um veículo autónomo pode ser manipulado para interpretar mal os sinais de trânsito, conduzi-lo-ia? Certamente que não.

Nós, humanos, vivemos de acordo com normas éticas estabelecidas pela comunidade que são aplicadas através de leis, regras, pressão social e discurso público. Embora a ética e os valores possam variar ao longo do tempo e entre culturas, têm desempenhado um papel crucial na tomada de decisões desde os primórdios da civilização humana.

Também no mundo dos negócios, a questão da ética não é nova. Mas como a inteligência artificial (IA) continua a evoluir a um ritmo acelerado, entrando cada vez mais nos processos empresariais e apoiando a tomada de decisões, temos de abordar sem demora questões éticas muito profundas.

Obstáculos éticos da IA

Em 2019, foram apresentadas queixas de clientes que acusavam o algoritmo de pontuação de crédito do Apple Card de discriminação de género. E os investigadores de segurança da McAfee utilizaram um truque simples para enganar o controlo de cruzeiro inteligente da Tesla. Para o fazer, os investigadores colaram uma tira de fita adesiva de 2 polegadas num sinal de velocidade de 35 mph (tornando a parte central do 3 um pouco mais comprida), e o sistema do carro interpretou-a erradamente como 85 mph e ajustou a sua velocidade em conformidade.

A utilização responsável dos dados tornou-se, assim, fundamental para a vantagem competitiva.

Enquanto os consumidores estão preocupados com questões sociais como a prosperidade partilhada, a inclusão e o impacto da IA no emprego, as empresas estão concentradas em impactos organizacionais como:

  • As autoridades reguladoras, bem como a União Europeia, estão a trabalhar em quadros jurídicos correspondentes que obrigam cada vez mais as empresas. Em 21 de Abril de 2021, a Comissão Europeia apresentou o primeiro quadro jurídico de sempre para a IA, que tenta classificar a IA em categorias de risco.
  • Se um modelo discriminar injustificadamente um determinado grupo de clientes, isso pode levar a sérios danos à reputação.
  • A tomada de decisões transparente gera confiança junto dos clientes e aumenta a sua vontade de partilhar dados. Por exemplo, 81% dos consumidores afirmam ter ficado mais preocupados com a forma como as empresas utilizam os seus dados no último ano.

Exemplo: Directrizes éticas da IBM

Por conseguinte, muitas empresas já impuseram as suas próprias directrizes para uma IA ética. A IBM, que se esforça pela inovação responsável há mais de 100 anos, circunscreve as seguintes cinco áreas de foco no desenvolvimento de sistemas de IA responsáveis:

  • Responsabilidade: Os projectistas e criadores de IA são responsáveis por sistemas de IA éticos e pelos seus resultados.
  • Alinhamento de valores: a IA deve ser concebida para se alinhar com as normas e os valores do seu grupo de utilizadores.
  • Explicabilidade: a IA deve ser concebida de modo a que os seres humanos possam compreender o seu processo de tomada de decisões.
  • Equidade: a IA deve ser concebida para minimizar os preconceitos e promover a inclusão.
  • Direitos dos dados dos utilizadores: A IA deve ser concebida de forma a proteger os dados dos utilizadores e a que estes mantenham o controlo sobre o acesso e a utilização dos dados.

O futuro dos sistemas éticos de IA

Os critérios e métricas para sistemas de IA éticos dependerão, em última análise, da indústria e do caso de utilização em que são implementados. Mas os criadores e programadores de IA podem ajudar a reduzir o preconceito e a discriminação tendo em conta estas cinco áreas de consideração ética.

Os sistemas de IA devem ser suficientemente flexíveis para serem constantemente mantidos e melhorados à medida que as questões éticas são descobertas e abordadas. Vários painéis de controlo ou conjuntos de ferramentas disponíveis para desenvolvimento podem apoiar o processo. Por exemplo, o “AI Fairness 360“, um conjunto de ferramentas de código aberto que pode ajudar a investigar, comunicar e atenuar a discriminação e o preconceito nos modelos de IA. Ou o conjunto de ferramentas de código aberto “AI Explainability 360“, que pode ajudar a explicar os algoritmos de IA.

Resumo

A tomada de decisões éticas não é apenas mais uma forma de resolução de problemas técnicos, mas deve ser integrada no processo de concepção e desenvolvimento da IA desde o início. A IA ética e centrada no ser humano deve ser concebida e desenvolvida de forma a ser coerente com os valores e a ética da sociedade ou da comunidade que afecta.

Para as empresas que utilizam a IA, esta deve ser uma prioridade máxima. É preciso garantir que todos os trabalhadores compreendam os riscos e se sintam responsáveis pelo sucesso da IA na empresa.

As the "Head of Data Strategy & Data Culture" at O2 Telefónica, Britta champions data-driven business transformation. She is also the founder of "dy.no," a platform dedicated to empowering change-makers in the corporate and business sectors. Before her current role, Britta established an Artificial Intelligence department at IBM, where she spearheaded the implementation of AI programs for various corporations. She is the author of "The Disruption DNA" (2021), a book that motivates individuals to take an active role in digital transformation.

Comentários estão fechados.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More