É possível confiar na inteligência artificial?

 

 O comentário é de Jasmine Milene, advogada italiana, em artigo publicado por Apostolato Digitale, 16-07-2021. A tradução é de Moisés Sbardelotto.

“Muitos esforços atuais visam a avaliar a confiabilidade do sistema de inteligência artificial por meio de medições de precisão, confiabilidade e explicabilidade, entre outras características do sistema. Embora essas características sejam necessárias, determinar se o sistema de inteligência artificial é confiável porque atende aos requisitos do seu sistema não garantirá uma adoção generalizada da inteligência artificial. É o usuário, o ser humano afetado pela inteligência artificial, quem, em última análise, deposita a sua confiança no sistema.”

Pedir que a inteligência artificial realize a mesma tarefa em duas ocasiões diferentes pode levar a duas respostas diferentes, porque a inteligência artificial “aprendeu” no tempo entre as duas demandas. Dado esse grau significativo de imprevisibilidade, é o usuário quem, em última análise, deve decidir se confia ou não na inteligência artificial.

O conceito de “confiança”, que é definido como “traço humano”, “serve como um mecanismo para reduzir a complexidade”.

Serdar Kaya escreve: “Em ambientes ancestrais, a desconfiança era essencial para a sobrevivência, pois fazia com que os humanos fossem cautelosos em relação a seus inimigos mais mortais: os outros humanos. Os indivíduos que consideravam os outros humanos como potencialmente perigosos e exploradores tinham maior probabilidade de permanecer vivos e passar seus genes para as gerações futuras”.

A confiança, portanto, torna-se a pedra angular de um mecanismo compartilhado de aceitação do novo por parte da comunidade. A confiança está inevitavelmente ligada à percepção do risco em um determinado contexto.

Seguindo a teoria dos jogos, a confiança e a desconfiança condicionais protegem o indivíduo de enganar os outros, embora continuando a recolher os potenciais benefícios da cooperação.

Kevin Anthony Hoff e Masooda Bashir, autores de “Trust in Automation”, definiram três fontes de variabilidade na confiança na automação: disposicional, relacional e adquirida. Os fatores de disposição incluem a idade, a cultura e a personalidade do fiduciário (operador ou usuário da automação).

Os fatores relacionais dizem respeito ao contexto da interação homem-automação e a vários aspectos da tarefa, como a carga de trabalho e o risco.

A confiança adquirida é resultado das características de desempenha do sistema e de design. Se as pessoas esperam que a automação funcione de modo impecável, os erros cometidos pela automação são mais prejudiciais para a confiança do que os erros cometidos pelos recursos não automatizados.

Os estudos descobriram que uma automação mais antropomórfica gera maior “resiliência à confiança”. Assim, citando Luhmann, segue o corolário de que “a confiança é cada vez mais demandada como um meio para suportar a complexidade do futuro que a tecnologia gerará”.

De acordo com Bill Gates, a confiabilidade de um sistema se apoia no fato de poder confiar legitimamente no serviço que ele fornece e na capacidade de executar como e conforme necessário, e é esta segunda definição que encoraja a criação de características que uma inteligência artificial deve ter para ser confiável.

Dois fenômenos são, então, distinguidos, o User Trust Potential (UTP), ou seja, o potencial de confiança dos usuários, que consiste nos atributos pessoais intrínsecos do usuário, e a Perceived System Trustworthiness (PST), equivalente à confiabilidade percebida do sistema, que consiste em uma relação entre a experiência do usuário (User Experience, UX) e a confiabilidade técnica: a usabilidade, o principal componente da UX, é composta por três métricas de acordo com um padrão internacional, isto é, eficiência, eficácia e satisfação do usuário.

No caso da inteligência artificial, são identificadas nove características que definem a confiabilidade do sistema: Precisão, Confiabilidade, Resiliência, Objetividade, Segurança, Explicabilidade, Segurança, Responsabilidade e Privacidade.

Em conclusão, “é por causa dessa crescente complexidade tecnológica que precisamos olhar para a perspectiva do usuário se quisermos entender a confiança na inteligência artificial. A confiança na inteligência artificial dependerá de como o usuário humano percebe o sistema. (...) É essa confiança, com base nas percepções do usuário, que será necessária para qualquer colaboração humano- inteligência artificial”. 

Fonte: Unisinos Ihu

Comentários

Postagens mais visitadas