La giusta intelligenza dell'intelligenza artificiale

·2 minuto per la lettura

Alcuni anni fa, Business Insider aveva previsto che l'80% delle applicazioni aziendali avrebbe utilizzato i chatbot entro il 2020. Oggi che Internet è invasa da una moltitudine di intelligenze artificiali che si pongono in relazione con l'utente la realtà dice che solo poche di esse vengono effettivamente utilizzate dalle persone. Ovvero ci manca ancora una comprensione fondamentale dei meccanismi che influenzano la nostra esperienza: perché, per esempio, il chatbot cinese di Microsoft Xiaoice accumula milioni di utenti mensili, mentre la versione inglese di Microsoft, Tay, è stata interrotta? Una ricerca della Stanford University ha studiato gli effetti connessi all'uso linguistico di queste intelligenze artificiali di relazione.

How to Build a Likable Chatbot , è stata presentata allo scorso ACM (Conference on Computer-Supported Cooperative Work and Social Computing) e si basa su tre studi in cui quasi 300 partecipanti hanno interagito con un agente di intelligenza artificiale. Oggi, gli agenti di intelligenza artificiale sono spesso associati a una sorta di metafora. Alcuni, come Siri e Alexa, sono visti come assistenti amministrativi, Xiaoice viene proposto come un amico, quasi un fidanzato virtuale e Woebot come uno psicoterapeuta. Queste metafore hanno lo scopo di aiutarci a capire e prevedere come dovrebbero essere utilizzati questi agenti di intelligenza artificiale e come si comporteranno. Spiega uno degli autori dello studio Ranjay Krishna: “Se, ad esempio, la metafora spinge le persone ad aspettarsi un'intelligenza artificiale altamente competente e in grado di comprendere comandi complessi, valutano la stessa interazione con l'agente in modo diverso rispetto a se se si aspettano di trovarsi di fronte un'intelligenza in grado di comprendere solo comandi semplici. Allo stesso modo, se gli utenti pensano a un'esperienza calda e accogliente, la valutano diversamente rispetto all'attesa di un'esperienza professionale più fredda”.

L'esperimento ha previsto proprio l'utilizzo di metafore diverse per presentare alle persone i vari chatbot con cui si sarebbero confrontati. E: “Metafore di bassa competenza (ad esempio, 'Questo chatbot è come un bambino' hanno portato a un aumento dell'usabilità e, da parte dell'utente, al desiderio di cooperare. Al contrario, metafore di alta competenza come 'questo chatbot è di livello professionale' hanno portato l'utente a una visione negativa del suo utilizzo”. Le descrizioni sono potenti. “La nostra analisi suggerisce che i progettisti dovrebbero analizzare attentamente gli effetti delle metafore che associano ai sistemi di intelligenza artificiale che creano, soprattutto se stanno comunicando aspettative di alta competenza”. Per esempio, Mitsuku, presentato come il “cinque volte vincitore del test di Turing” è un progetto che è stato abbandonato.

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli