Le parole per dirlo: le caratteristiche umane nelle chat e nelle interfacce dell’Intelligenza Artificiale.
Le professioni basate sul dialogo, come psicologi, counselor, coach, docenti e formatori, ecc. stanno vivendo una trasformazione radicale con l’introduzione delle AI – Artificial Intelligence antropomorfe sotto forma di chatbot (vedi anche: GPT: “Professional Coach” creata da WikiCoaching), avatar e assistenti virtuali domestiche come Alexa (Amazon Echo), Google Nest (ex Google Home), ElliQ, ecc. Queste tecnologie, progettate per emulare il comportamento umano, offrono potenziali vantaggi ma anche significative sfide per i professionisti del settore.
Questo articolo prosegue la riflessione avviata con “Le App dell’Intelligenza Artificiale generativa sostituiranno i coach?”, esplorando l’antropomorfismo nelle interfacce AI e le sue implicazioni per queste professioni, ponendo un’attenzione particolare sui rischi e le opportunità che tali tecnologie presentano.
–
Antropomorfismo e etopoiesi
L’antropomorfismo è la strategia di attribuire caratteristiche umane a oggetti non umani, utilizzata intenzionalmente dai progettisti di tecnologie interattive per rendere le loro interfacce più simili agli esseri umani. Questa tecnica riguarda soprattutto l’espressione e l’interazione, come le formule di cortesia utilizzate ad esempio da ChatGPT o la voce articolata e fluida che rende alcuni sistemi quasi indistinguibili dagli esseri umani: il 40% già adesso non riesce a farlo.
L’etopoiesi è il processo di formazione e sviluppo del carattere morale e delle virtù etiche di una persona: la cura di sé. È la tendenza naturale degli esseri umani a proiettare comportamenti intenzionali e perfino una coscienza “animistica” su oggetti inanimati o manifestazioni naturali. Questo fenomeno, che ha radici evolutive, ci aiuta a prevedere e sfruttare meglio l’ambiente circostante per raggiungere i nostri scopi strumentali.
Questa distinzione non è oziosa ma fondamentale per capire chi è responsabile di cosa: l’antropomorfismo è sotto il controllo del produttore e può essere regolamentato, mentre l’etopoiesi è una risposta innata dell’utente, che è in relazione con la sua attenzione e la sua consapevolezza (vedi anche: L’importanza dei livelli di Attenzione per risvegliare la consapevolezza e “Cosa sono i Livelli di Consapevolezza tratti dalla Psicologia Integrale“)
Antropomorfismo: una strategia commerciale efficace utilizzata dai produttori AI
L’antropomorfismo è utilizzato deliberatamente dai progettisti di AI per rendere i loro sistemi commercialmente più attraenti e gratificanti, come la recente ulteriore umanizzazione della chat audio di Chat GPT sta a dimostrare. Questo approccio sfrutta il nostro innato desiderio di interazione umana. La cortesia e la confidenzialità affettata che troviamo nelle risposte di molti chatbot, ad esempio, non sono casuali ma progettate anche per abbassare le difese dell’utente e renderlo più incline a fidarsi e interagire con il sistema. Infondo questo spiega il successo del lancio di Chat GPT nel novembre del 2022.
Il concetto di simpatia di Robert Cialdini, una delle sei leve della persuasione, è particolarmente rilevante in questo contesto. L’antropomorfismo delle interfacce AI può rendere questi sistemi non solo più accattivanti ma anche più persuasivi, abbassando le difese critiche degli utenti. Questo effetto potrebbe essere sfruttato per raccogliere informazioni personali e influenzare i comportamenti di consumo, aumentando il rischio di una manipolazione sottile ma potente.
Il rischio di etopoiesi eccessiva
Questa umanizzazione delle interfacce AI potrebbe avere effetti collaterali indesiderati, soprattutto se porta a un’etopoiesi eccessiva.
Gli utenti, in particolare i giovani o le persone più vulnerabili, potrebbero sviluppare una fiducia eccessiva nei confronti di questi sistemi, dimenticando che sono, in definitiva, servizi digitali gestiti da aziende con interessi commerciali. Questo potrebbe condurre a un affidamento eccessivo su questi strumenti, diminuendo la capacità critica e aumentando il rischio di manipolazione anche per finalità illecite (ricordo che le AI generative sono anche open source e quindi possono essere gestite anche per queste finalità fraudolente).
Impatto sulle professioni che utilizzano il dialogo come elemento essenziale
Le professioni che si basano sul dialogo, come psicologi, counselor, coach, docenti e formatori, potrebbero essere profondamente influenzate dall’introduzione di AI antropomorfe.
- Da un lato, queste tecnologie potrebbero offrire un supporto immediato e accessibile, migliorando l’accesso ai servizi di supporto psicologico e formativo.
- Dall’altro, c’è il rischio che le AI antropomorfe possano ridurre la percezione del valore umano nelle interazioni terapeutiche e formative, sostituendo in parte il ruolo di professionisti qualificati con algoritmi che, per quanto avanzati, non possono replicare la complessità e l’empatia umana.
È fondamentale quindi considerare un equilibrio dove le AI possano essere strumenti di supporto, senza però sostituire l’insostituibile valore del dialogo umano.
Benefici dell’antropomorfismo nelle interfacce AI
L’antropomorfismo nelle interfacce AI, come l’uso di avatar umani e linguaggio naturale, può rendere la tecnologia più accessibile e piacevole da usare.
I chatbot con voci umane, ad esempio, possono aiutare a ridurre l’ansia tecnologica, rendendo l’interazione più familiare. Questo è particolarmente utile per le persone meno tecnologiche o per coloro che necessitano di un supporto empatico, come gli anziani o chi ha bisogno di assistenza sanitaria. Inoltre, un’interfaccia antropomorfa può migliorare l’efficacia dell’apprendimento nelle piattaforme educative, rendendo l’esperienza più interattiva e coinvolgente.
Rischi dell’antropomorfismo nelle Interfacce AI
Mentre l’antropomorfismo può facilitare l’uso della tecnologia, esso rappresenta anche una forma di manipolazione. Gli utenti possono sviluppare un’eccessiva fiducia nelle AI antropomorfe, percependole come più competenti to benevole di quanto non siano in realtà. Questo può portare a una riduzione del pensiero critico, rendendo gli utenti più suscettibili a influenze esterne e manipolazioni commerciali.p (per non parlare delle manipolazioni informative e politiche…) Ad esempio, un chatbot antropomorfo potrebbe convincere un utente ad acquistare prodotti o servizi non necessari, sfruttando la percezione di una relazione umana.
Regolamentazione e trasparenza
L’antropomorfismo può essere utilizzato in modo etico per migliorare le esperienze d’uso degli utenti senza manipolarli. Ad esempio, le aziende possono essere trasparenti riguardo all’uso di AI, informando gli utenti che stanno interagendo con una macchina. Questo può aiutare a mantenere il pensiero critico attivo. Inoltre, l’antropomorfismo può essere limitato a contesti dove il beneficio supera i rischi, come nel supporto psicologico o nell’educazione, dove la percezione di empatia e comprensione può avere un impatto positivo significativo.
Anche con la trasparenza, il rischio di manipolazione rimane. Le AI antropomorfe possono raccogliere dati personali in modo più efficiente, poiché gli utenti sono più inclini a condividere informazioni con entità percepite come umane. Questo può portare a un uso improprio dei dati raccolti, con implicazioni etiche significative. Inoltre, la regolamentazione di queste tecnologie è spesso in ritardo rispetto alla loro implementazione, lasciando spazio per abusi.
–
Sintesi delle criticità e ipotesi di soluzione
Fiducia eccessiva nei chatbot e negli assistenti virtuali
Implementare avvisi chiari e trasparenti che informino gli utenti delle limitazioni e delle capacità delle AI può aiutare a mitigare il rischio di fiducia eccessiva. Potrebbe essere utile anche limitare l’uso dell’antropomorfismo nelle AI per ridurre il rischio di eccessiva fiducia, utilizzando interfacce più neutre? Non credo che sia commercialmente praticabile.
Raccolta dati pervasiva
Rafforzare le politiche di privacy e trasparenza, con opzioni chiare per limitare la condivisione di dati personali, è essenziale. Ridurre la quantità di dati raccolti dalle AI antropomorfe e garantire un controllo rigoroso da parte di enti indipendenti potrebbe anche aiutare a proteggere la privacy degli utenti? Regolamentazione!
Manipolazione dei comportamenti di consumo
Regolamentare le pratiche di marketing delle AI, garantendo che le promozioni siano etiche e non manipolative, è cruciale. Potrebbe essere necessario anche regolamentare o proibire l’uso di tecniche persuasive nelle AI antropomorfe in contesti commerciali, per prevenire la manipolazione.
Impatto sui giovani e sulle persone più vulnerabili
Educare queste fasce di popolazione sui rischi associati all’interazione con le AI e sviluppare strumenti di controllo parentale è fondamentale. Limitare l’accesso delle AI antropomorfe a giovani e vulnerabili, utilizzando solo interfacce con minori caratteristiche umane, può essere un ulteriore passo per proteggere questi gruppi? Non credo sia fattibile…
–
Tra opportunità e rischi
L’antropomorfismo nelle interfacce AI rappresenta una potente innovazione con potenziali benefici significativi per l’usabilità e l’adozione tecnologica.
È essenziale allora affrontare i rischi associati attraverso regolamentazioni adeguate e l’educazione degli utenti. Trovare un equilibrio tra benefici e protezione degli utenti è cruciale per sfruttare al meglio le potenzialità dell’AI antropomorfa.
Per le professioni basate sul dialogo, come psicologi, counselor, coach, docenti e formatori, l’integrazione di AI antropomorfe2 potrebbe trasformare radicalmente il modo in cui operano. Questi professionisti potrebbero utilizzare le AI per migliorare l’accessibilità ai loro servizi, offrendo supporto immediato e personalizzato. Queste professioni dovranno anche affrontare la sfida di preservare l’elemento umano nelle loro interazioni, enfatizzando l’Intelligenza Emotiva, garantendo quindi che l’empatia e la comprensione non siano sacrificate a favore dell’efficienza tecnologica.
Le AI possono diventare strumenti di supporto preziosi, ma non dovrebbero mai sostituire l’insostituibile valore del dialogo umano.
Articoli correlati:
- Le App dell’Intelligenza Artificiale generativa sostituiranno i coach?
- Con Chat GPT la competenza da utilizzare nel “fare le domande” è il “pensiero critico”
Riferimenti: