Ética, confiança e explicabilidade na Inteligência Artificial (IA)

Desvendar a caixa negra da IA e compreender a ética da IA

À medida que a inteligência artificial (IA) continua a evoluir a um ritmo acelerado, passando a fazer parte de cada vez mais processos empresariais, e à medida que as pressões regulamentares e dos clientes continuam a aumentar, temos de abordar algumas questões éticas muito profundas. Os designers e programadores de IA, em particular, podem ajudar a reduzir o preconceito e a discriminação, abordando estas áreas de consideração ética e utilizando kits de ferramentas de apoio.

Se lhe dissessem que o seu pedido de empréstimo tinha sido rejeitado sem qualquer razão aparente, aceitaria essa decisão? E se soubesse que um veículo autónomo pode ser manipulado para interpretar mal os sinais de trânsito, conduzi-lo-ia? Certamente que não.

Nós, humanos, vivemos de acordo com normas éticas estabelecidas pela comunidade que são aplicadas através de leis, regras, pressão social e discurso público. Embora a ética e os valores possam variar ao longo do tempo e entre culturas, têm desempenhado um papel crucial na tomada de decisões desde os primórdios da civilização humana.

Também no mundo dos negócios, a questão da ética não é nova. Mas como a inteligência artificial (IA) continua a evoluir a um ritmo acelerado, entrando cada vez mais nos processos empresariais e apoiando a tomada de decisões, temos de abordar sem demora questões éticas muito profundas.

Obstáculos éticos da IA

Em 2019, foram apresentadas queixas de clientes que acusavam o algoritmo de pontuação de crédito do Apple Card de discriminação de género. E os investigadores de segurança da McAfee utilizaram um truque simples para enganar o controlo de cruzeiro inteligente da Tesla. Para o fazer, os investigadores colaram uma tira de fita adesiva de 2 polegadas num sinal de velocidade de 35 mph (tornando a parte central do 3 um pouco mais comprida), e o sistema do carro interpretou-a erradamente como 85 mph e ajustou a sua velocidade em conformidade.

A utilização responsável dos dados tornou-se, assim, fundamental para a vantagem competitiva.

Enquanto os consumidores estão preocupados com questões sociais como a prosperidade partilhada, a inclusão e o impacto da IA no emprego, as empresas estão concentradas em impactos organizacionais como:

  • As autoridades reguladoras, bem como a União Europeia, estão a trabalhar em quadros jurídicos correspondentes que obrigam cada vez mais as empresas. Em 21 de Abril de 2021, a Comissão Europeia apresentou o primeiro quadro jurídico de sempre para a IA, que tenta classificar a IA em categorias de risco.
  • Se um modelo discriminar injustificadamente um determinado grupo de clientes, isso pode levar a sérios danos à reputação.
  • A tomada de decisões transparente gera confiança junto dos clientes e aumenta a sua vontade de partilhar dados. Por exemplo, 81% dos consumidores afirmam ter ficado mais preocupados com a forma como as empresas utilizam os seus dados no último ano.

Exemplo: Directrizes éticas da IBM

Por conseguinte, muitas empresas já impuseram as suas próprias directrizes para uma IA ética. A IBM, que se esforça pela inovação responsável há mais de 100 anos, circunscreve as seguintes cinco áreas de foco no desenvolvimento de sistemas de IA responsáveis:

  • Responsabilidade: Os projectistas e criadores de IA são responsáveis por sistemas de IA éticos e pelos seus resultados.
  • Alinhamento de valores: a IA deve ser concebida para se alinhar com as normas e os valores do seu grupo de utilizadores.
  • Explicabilidade: a IA deve ser concebida de modo a que os seres humanos possam compreender o seu processo de tomada de decisões.
  • Equidade: a IA deve ser concebida para minimizar os preconceitos e promover a inclusão.
  • Direitos dos dados dos utilizadores: A IA deve ser concebida de forma a proteger os dados dos utilizadores e a que estes mantenham o controlo sobre o acesso e a utilização dos dados.

O futuro dos sistemas éticos de IA

Os critérios e métricas para sistemas de IA éticos dependerão, em última análise, da indústria e do caso de utilização em que são implementados. Mas os criadores e programadores de IA podem ajudar a reduzir o preconceito e a discriminação tendo em conta estas cinco áreas de consideração ética.

Os sistemas de IA devem ser suficientemente flexíveis para serem constantemente mantidos e melhorados à medida que as questões éticas são descobertas e abordadas. Vários painéis de controlo ou conjuntos de ferramentas disponíveis para desenvolvimento podem apoiar o processo. Por exemplo, o “AI Fairness 360“, um conjunto de ferramentas de código aberto que pode ajudar a investigar, comunicar e atenuar a discriminação e o preconceito nos modelos de IA. Ou o conjunto de ferramentas de código aberto “AI Explainability 360“, que pode ajudar a explicar os algoritmos de IA.

Resumo

A tomada de decisões éticas não é apenas mais uma forma de resolução de problemas técnicos, mas deve ser integrada no processo de concepção e desenvolvimento da IA desde o início. A IA ética e centrada no ser humano deve ser concebida e desenvolvida de forma a ser coerente com os valores e a ética da sociedade ou da comunidade que afecta.

Para as empresas que utilizam a IA, esta deve ser uma prioridade máxima. É preciso garantir que todos os trabalhadores compreendam os riscos e se sintam responsáveis pelo sucesso da IA na empresa.

Als Bereichsleiterin für „Data & Technology Transformation“ und Account Partnerin treibt Britta tagtäglich Unternehmenstransformationen und unterstützt mit ihrer gegründeten Plattform "dy.no" Macher*innen, die in der Konzern- und Wirtschaftswelt etwas verändern wollen. 2021 erschien zudem ihr Buch „Die Disruptions-DNA“, das dazu inspiriert, die Digitale Transformation aktiv mitzugestalten.

Comentários estão fechados.