Intelligenza artificiale e coaching: dal “Se” al “Come”. Insight dalla tavola rotonda ICF

Il 14 novembre 2025, nella cornice della conferenza ICF Italia, si è tenuta una tavola rotonda “Il coach nell’era dell’intelligenza artificiale” gestita dal Comitato Scientifico ICF di cui faccio parte, che ha segnato un momento di svolta per la nostra professione. Non più il dibattito sul “se” adottare l’intelligenza artificiale nel coaching, ma finalmente il confronto sul “come” farlo in modo etico, efficace e trasformativo.

Un panel di voci autorevoli per esplorare il cambiamento

La moderatrice Gabriella Campanile, coordinatrice del Comitato Scientifico ICF, ha orchestrato un dialogo ricco e multidisciplinare che ha visto protagonisti:

  • Maria Rita Fiasco, Executive Coach e membro del Team AI & Coaching del Comitato Scientifico, che ha presentato i risultati della ricerca più ampia mai condotta in Italia sul tema
  • Anna Gallotti, MCC di ICF Global, che ha portato la prospettiva internazionale e il modello LEAD
  • Giovanna D’Alessio, MCC e già Presidente ICF Global e Italia, voce autorevole sulle competenze profonde del coach
  • Il Prof. Paolo Ceravolo dell’Università degli Studi di Milano, che ha portato la profondità tecnica necessaria per demistificare l’IA
  • Maria Laura Fornaci, coordinatrice dell’Osservatorio Future of Workers della Fondazione Brodolini, con la sua visione sistemica sul futuro del lavoro

L’industria del coaching sta attraversando trasformazioni epocali con l’emergere di piattaforme AI, chatbot e strumenti sempre più sofisticati. Ma di cosa deve attrezzarsi veramente il coach? Quali competenze e quale mindset servono per restare nel coaching trasformativo? E quali sono i rischi reali da gestire?

La ricerca che fotografa il presente: 197 coach ci parlano

Maria Rita Fiasco ha presentato i risultati di un progetto durato 10 mesi che ha coinvolto 197 coach, prevalentemente ICF ma non solo. Il profilo che emerge è sorprendente e sfata alcuni miti:

  • Il campione è composto per il 70% da donne, con il 43% nella fascia 50-59 anni e il 64% con credenziali ICF. L’interesse per l’IA non è limitato ai più giovani – questo è il primo insight importante. È un campione senior e trasversale che sta esplorando con curiosità le nuove frontiere.
  • I dati sull’adozione parlano chiaro: il 44% già usa l’IA (in modo frequente o occasionale), mentre il 33% sta iniziando. Ma ecco il dato più interessante: tra i non utilizzatori, prevale il “non la conosco” rispetto a una chiusura aprioristica. C’è voglia di esplorare, non paura del cambiamento.
  • Le barriere principali? Soprattutto gap di competenze e scarsa familiarità con gli strumenti. I timori legati a privacy, etica e gestione dati esistono, certo, ma sono minoritari. Il focus si sta spostando decisamente dal “se” al “come” adottare l’IA nel coaching.

E dove si usa concretamente? Preparazione delle sessioni, sintesi, riflessione post-sessione. L’IA diventa un alleato nel lavoro di backoffice, non un sostituto nella relazione con il cliente.

Le tre direttrici di competenza per il coach aumentato

Dalla ricerca emergono tre direttrici fondamentali che abilitano un uso consapevole dell’IA:

1. AI Literacy. Non serve diventare programmatori, ma comprendere principi e logiche, limiti e opportunità, rischi e potenzialità. È fondamentale saper gestire la disclosure con i clienti, proteggere i dati, definire confini chiari d’uso.

2. Mediazione Uomo-Macchina. Integrare senza delegare – questa è la chiave. Significa saper fare prompting efficace, leggere criticamente gli output dell’IA, mantenere autenticità, presenza e senso etico. Il coach resta al timone, l’IA è il co-pilota.

3. Metacognizione Aumentata. Forse la più sofisticata: sviluppare consapevolezza di come pensiamo e decidiamo mentre usiamo l’IA. È una competenza riflessiva che ci permette di non essere “fagocitati” dalla tecnologia ma di usarla come specchio per apprendere sul nostro stile.

La prospettiva ICF Global: il modello LEAD e l’insostituibile ascolto umano

Anna Gallotti ha raccontato il percorso di ICF Global dal novembre 2022 (lancio di ChatGPT) ad oggi. Una Task Force dedicata, l’assunzione di una figura specializzata (Susan Caesar), due tavoli di lavoro con esperti e stakeholder globali, pubblicazione di guidelines. Un approccio strutturato e responsabile.

Ma il contributo più prezioso viene dalla ricerca condotta con Columbia University e Catherine Tannot: il modello LEAD (Listen, Elevate, Align, Deliver). L’esito chiave? La fase di Listen – l’ascolto sistemico e fine dei segnali, degli effetti a 360° – non è sostituibile dall’IA, che resta più lineare che sistemica.

Ecco quindi il valore distintivo come coach umani: la capacità di cogliere le sfumature, i non detti, le emozioni sottili, le connessioni sistemiche che un algoritmo, per quanto sofisticato, non può catturare.

Competenze interiori e digitali: il binomio inscindibile secondo Giovanna D’Alessio

D’Alessio ha brillantemente articolato il doppio registro di competenze necessarie:

Le competenze interiori (chi siamo nella relazione):

  • La presenza cosciente come firma distintiva e antidoto all’irrilevanza
  • La non direttività autentica: usare insight e metriche dell’IA senza farsene guidare
  • Lo sviluppo verticale: aiutare il cliente ad accedere a livelli più alti di consapevolezza

Le competenze digitali/etiche:

  • Il dialogo con l’IA: prompt engineering, contestualizzazione, lettura critica
  • L’etica operativa: IA prima/dopo la sessione, mai come “terzo interlocutore” senza consenso
  • La riflessività: usare l’IA come specchio per apprendere, non per auto-confermarsi
  • La co-creazione: integrare logica algoritmica e intuizione umana

I fondamenti tecnici spiegati con chiarezza: il contributo del Prof. Ceravolo

Il Professor Ceravolo ha demistificato l’IA spiegandola come “intelligenza collettiva” – una codifica efficiente della conoscenza prodotta dalla società. I Large Language Model (LLM) sono forti sul sapere enciclopedico ma deboli sul sapere procedurale implicito.

I limiti strutturali sono chiari: finestre contestuali finite, rischio di propagazione errori su catene lunghe, debolezza sulle complessità sistemiche. Tecniche come il RAG (Retrieval-Augmented Generation) possono estendere le fonti, ma l’IA non ha corpo né emozioni – limiti fondamentali per l’esperienza incarnata e la creatività che caratterizzano il coaching trasformativo.

Il futuro del lavoro: dall’efficienza individuale all’IA agentica

Maria Laura Fornaci ha portato una prospettiva sistemica fondamentale. Oggi viviamo il “paradosso dell’IA generativa”: benefici individuali che non sempre si traducono in miglioramenti del bottom line aziendale.

Ma la prossima ondata sarà l’IA “agentica” – integrata nei processi verticali, nei workflow delle funzioni aziendali. Questo avrà effetti profondi su:

  • Attività: cosa affidare all’IA e cosa tenere in capo all’umano
  • Ruoli: dal tecnico all’orchestratore di agenti IA
  • Qualità del lavoro: soddisfazione, senso, accountability

Citando Luciano Floridi, non parliamo di “intelligenza” ma di agency artificiale potentissima sui segni, non sul senso. La conseguenza? Governare l’IA mantenendo gli umani in controllo, definendo confini chiari e responsabilità.

I 7 insight chiave emersi: la sintesi operativa

1. Il coach resta al timone: L’IA è co-pilota per preparazione e riflessione, ma il valore umano distintivo resta nella presenza, ascolto sistemico e intuito.

2. Etica e trasparenza vanno scritte nel contratto: esplicitare se/come si usa l’IA, con limiti, protezione dati e consenso informato. L’AI Act europeo (Art. 50) lo richiede già.

3. Le tre competenze abilitanti sono imprescindibili: AI-literacy, mediazione uomo-macchina, metacognizione aumentata – un trittico da sviluppare con urgenza.

4. La community è pronta ma ha bisogno di supporto: il 77% già usa o sta iniziando. Le barriere sono di competenza più che ideologiche.

5. L’IA meglio definita con Artifical Agency cambierà i significati del lavoro: dai benefici individuali all’integrazione nei processi, con nuovi ruoli e responsabilità.

6. I limiti tecnici richiedono supervisione umana: finestre contestuali finite, errori su complessità sistemiche – servono supervisione e registri decisionali.

7. “Agency senza intelligenza” – la cornice epistemologica: l’IA va governata come nuova forma di agency, non come intelligenza dotata di senso.

Il coaching aumentato: una visione per il futuro

La tavola rotonda ha tracciato una rotta chiara: il coaching aumentato non è quello che delega all’IA ma quello che integra consapevolmente tecnologia e umanità. È un coaching che:

  • Mantiene il coach al timone
  • Dichiara e regola l’uso dell’IA
  • Sviluppa le tre direttrici di competenza
  • Garantisce supervisione e accountability
  • Presta attenzione a equità e bias
  • Usa l’IA dove crea valore senza erodere l’ascolto sistemico

La chiamata all’azione per la nostra community

Il messaggio finale è chiaro: non possiamo permetterci di restare spettatori. Il cambiamento è qui, ora. La scelta non è se adottare l’IA ma come farlo preservando e amplificando ciò che ci rende insostituibili: la nostra presenza umana, la capacità di ascolto sistemico, l’intuizione creativa.

Come coach, abbiamo la responsabilità di:

  • Investire nelle tre competenze abilitanti
  • Sperimentare con curiosità e rigore etico
  • Condividere apprendimenti con la community
  • Contribuire alla definizione di standard e best practice
  • Mantenere sempre il cliente e la relazione al centro

Il futuro del coaching non sarà né totalmente umano né totalmente artificiale. Sarà aumentato, integrato, consapevole. E noi coach abbiamo l’opportunità – e la responsabilità – di plasmarlo attivamente.

I componenti del Comitato Scientifico ICF Italia:

Le parole per dirlo: le caratteristiche umane nelle chat e nelle interfacce dell’Intelligenza Artificiale.

Le professioni basate sul dialogo, come psicologi, counselor, coach, docenti e formatori, ecc. stanno vivendo una trasformazione radicale con l’introduzione delle AI – Artificial Intelligence antropomorfe sotto forma di chatbot (vedi anche: GPT: “Professional Coach” creata da WikiCoaching), avatar e assistenti virtuali domestiche come Alexa (Amazon Echo), Google Nest (ex Google Home), ElliQ, ecc. Queste tecnologie, progettate per emulare il comportamento umano, offrono potenziali vantaggi ma anche significative sfide per i professionisti del settore.
Questo articolo prosegue la riflessione avviata con “Le App dell’Intelligenza Artificiale generativa sostituiranno i coach?”, esplorando l’antropomorfismo nelle interfacce AI e le sue implicazioni per queste professioni, ponendo un’attenzione particolare sui rischi e le opportunità che tali tecnologie presentano.

Antropomorfismo e etopoiesi

L’antropomorfismo è la strategia di attribuire caratteristiche umane a oggetti non umani, utilizzata intenzionalmente dai progettisti di tecnologie interattive per rendere le loro interfacce più simili agli esseri umani. Questa tecnica riguarda soprattutto l’espressione e l’interazione, come le formule di cortesia utilizzate ad esempio da ChatGPT o la voce articolata e fluida che rende alcuni sistemi quasi indistinguibili dagli esseri umani: il 40% già adesso non riesce a farlo.

L’etopoiesi è il processo di formazione e sviluppo del carattere morale e delle virtù etiche di una persona: la cura di sé. È la tendenza naturale degli esseri umani a proiettare comportamenti intenzionali e perfino una coscienza “animistica” su oggetti inanimati o manifestazioni naturali. Questo fenomeno, che ha radici evolutive, ci aiuta a prevedere e sfruttare meglio l’ambiente circostante per raggiungere i nostri scopi strumentali.

Questa distinzione non è oziosa ma fondamentale per capire chi è responsabile di cosa: l’antropomorfismo è sotto il controllo del produttore e può essere regolamentato, mentre l’etopoiesi è una risposta innata dell’utente, che è in relazione con la sua attenzione e la sua consapevolezza (vedi anche: L’importanza dei livelli di Attenzione per risvegliare la consapevolezza e “Cosa sono i Livelli di Consapevolezza tratti dalla Psicologia Integrale“)

Antropomorfismo: una strategia commerciale efficace utilizzata dai produttori AI

L’antropomorfismo è utilizzato deliberatamente dai progettisti di AI per rendere i loro sistemi commercialmente più attraenti e gratificanti, come la recente ulteriore umanizzazione della chat audio di Chat GPT sta a dimostrare. Questo approccio sfrutta il nostro innato desiderio di interazione umana. La cortesia e la confidenzialità affettata che troviamo nelle risposte di molti chatbot, ad esempio, non sono casuali ma progettate anche per abbassare le difese dell’utente e renderlo più incline a fidarsi e interagire con il sistema. Infondo questo spiega il successo del lancio di Chat GPT nel novembre del 2022.

Il concetto di simpatia di Robert Cialdini, una delle sei leve della persuasione, è particolarmente rilevante in questo contesto. L’antropomorfismo delle interfacce AI può rendere questi sistemi non solo più accattivanti ma anche più persuasivi, abbassando le difese critiche degli utenti. Questo effetto potrebbe essere sfruttato per raccogliere informazioni personali e influenzare i comportamenti di consumo, aumentando il rischio di una manipolazione sottile ma potente.

Il rischio di etopoiesi eccessiva

Questa umanizzazione delle interfacce AI potrebbe avere effetti collaterali indesiderati, soprattutto se porta a un’etopoiesi eccessiva.
Gli utenti, in particolare i giovani o le persone più vulnerabili, potrebbero sviluppare una fiducia eccessiva nei confronti di questi sistemi, dimenticando che sono, in definitiva, servizi digitali gestiti da aziende con interessi commerciali. Questo potrebbe condurre a un affidamento eccessivo su questi strumenti, diminuendo la capacità critica e aumentando il rischio di manipolazione anche per finalità illecite (ricordo che le AI generative sono anche open source e quindi possono essere gestite anche per queste finalità fraudolente).

Impatto sulle professioni che utilizzano il dialogo come elemento essenziale

Le professioni che si basano sul dialogo, come psicologi, counselor, coach, docenti e formatori, potrebbero essere profondamente influenzate dall’introduzione di AI antropomorfe.

  • Da un lato, queste tecnologie potrebbero offrire un supporto immediato e accessibile, migliorando l’accesso ai servizi di supporto psicologico e formativo.
  • Dall’altro, c’è il rischio che le AI antropomorfe possano ridurre la percezione del valore umano nelle interazioni terapeutiche e formative, sostituendo in parte il ruolo di professionisti qualificati con algoritmi che, per quanto avanzati, non possono replicare la complessità e l’empatia umana.

È fondamentale quindi considerare un equilibrio dove le AI possano essere strumenti di supporto, senza però sostituire l’insostituibile valore del dialogo umano.

Benefici dell’antropomorfismo nelle interfacce AI

L’antropomorfismo nelle interfacce AI, come l’uso di avatar umani e linguaggio naturale, può rendere la tecnologia più accessibile e piacevole da usare.
I chatbot con voci umane, ad esempio, possono aiutare a ridurre l’ansia tecnologica, rendendo l’interazione più familiare. Questo è particolarmente utile per le persone meno tecnologiche o per coloro che necessitano di un supporto empatico, come gli anziani o chi ha bisogno di assistenza sanitaria. Inoltre, un’interfaccia antropomorfa può migliorare l’efficacia dell’apprendimento nelle piattaforme educative, rendendo l’esperienza più interattiva e coinvolgente.

Rischi dell’antropomorfismo nelle Interfacce AI

Mentre l’antropomorfismo può facilitare l’uso della tecnologia, esso rappresenta anche una forma di manipolazione. Gli utenti possono sviluppare un’eccessiva fiducia nelle AI antropomorfe, percependole come più competenti to benevole di quanto non siano in realtà. Questo può portare a una riduzione del pensiero critico, rendendo gli utenti più suscettibili a influenze esterne e manipolazioni commerciali.p (per non parlare delle manipolazioni informative e politiche…) Ad esempio, un chatbot antropomorfo potrebbe convincere un utente ad acquistare prodotti o servizi non necessari, sfruttando la percezione di una relazione umana.

Regolamentazione e trasparenza

L’antropomorfismo può essere utilizzato in modo etico per migliorare le esperienze d’uso degli utenti senza manipolarli. Ad esempio, le aziende possono essere trasparenti riguardo all’uso di AI, informando gli utenti che stanno interagendo con una macchina. Questo può aiutare a mantenere il pensiero critico attivo. Inoltre, l’antropomorfismo può essere limitato a contesti dove il beneficio supera i rischi, come nel supporto psicologico o nell’educazione, dove la percezione di empatia e comprensione può avere un impatto positivo significativo.

Anche con la trasparenza, il rischio di manipolazione rimane. Le AI antropomorfe possono raccogliere dati personali in modo più efficiente, poiché gli utenti sono più inclini a condividere informazioni con entità percepite come umane. Questo può portare a un uso improprio dei dati raccolti, con implicazioni etiche significative. Inoltre, la regolamentazione di queste tecnologie è spesso in ritardo rispetto alla loro implementazione, lasciando spazio per abusi.

Sintesi delle criticità e ipotesi di soluzione

Fiducia eccessiva nei chatbot e negli assistenti virtuali

Implementare avvisi chiari e trasparenti che informino gli utenti delle limitazioni e delle capacità delle AI può aiutare a mitigare il rischio di fiducia eccessiva. Potrebbe essere utile anche limitare l’uso dell’antropomorfismo nelle AI per ridurre il rischio di eccessiva fiducia, utilizzando interfacce più neutre? Non credo che sia commercialmente praticabile.

Raccolta dati pervasiva

Rafforzare le politiche di privacy e trasparenza, con opzioni chiare per limitare la condivisione di dati personali, è essenziale. Ridurre la quantità di dati raccolti dalle AI antropomorfe e garantire un controllo rigoroso da parte di enti indipendenti potrebbe anche aiutare a proteggere la privacy degli utenti? Regolamentazione!

Manipolazione dei comportamenti di consumo

Regolamentare le pratiche di marketing delle AI, garantendo che le promozioni siano etiche e non manipolative, è cruciale. Potrebbe essere necessario anche regolamentare o proibire l’uso di tecniche persuasive nelle AI antropomorfe in contesti commerciali, per prevenire la manipolazione.

Impatto sui giovani e sulle persone più vulnerabili

Educare queste fasce di popolazione sui rischi associati all’interazione con le AI e sviluppare strumenti di controllo parentale è fondamentale. Limitare l’accesso delle AI antropomorfe a giovani e vulnerabili, utilizzando solo interfacce con minori caratteristiche umane, può essere un ulteriore passo per proteggere questi gruppi? Non credo sia fattibile…

Tra opportunità e rischi

L’antropomorfismo nelle interfacce AI rappresenta una potente innovazione con potenziali benefici significativi per l’usabilità e l’adozione tecnologica.
È essenziale allora affrontare i rischi associati attraverso regolamentazioni adeguate e l’educazione degli utenti. Trovare un equilibrio tra benefici e protezione degli utenti è cruciale per sfruttare al meglio le potenzialità dell’AI antropomorfa.

Per le professioni basate sul dialogo, come psicologi, counselor, coach, docenti e formatori, l’integrazione di AI antropomorfe2 potrebbe trasformare radicalmente il modo in cui operano. Questi professionisti potrebbero utilizzare le AI per migliorare l’accessibilità ai loro servizi, offrendo supporto immediato e personalizzato. Queste professioni dovranno anche affrontare la sfida di preservare l’elemento umano nelle loro interazioni, enfatizzando l’Intelligenza Emotiva, garantendo quindi che l’empatia e la comprensione non siano sacrificate a favore dell’efficienza tecnologica.
Le AI possono diventare strumenti di supporto preziosi, ma non dovrebbero mai sostituire l’insostituibile valore del dialogo umano.

Articoli correlati:

Riferimenti: