Background Image

Nell’era dell’IA cresce il divario di consenso tra leader aziendali e grande pubblico: lo studio di Hotwire

Hotwire Continental Europe

L’Hotwire Frontier Tech Confidence Tracker

Il nuovo  Frontier Tech Confidence Tracker di Hotwire è un nuovo indice che rivela come i leader aziendali e il pubblico percepiscono le tecnologie emergenti. Sulla base delle informazioni fornite da oltre 8.000 cittadini e 730 business leader in cinque mercati europei, il report esplora la percezione/visione di 15 tecnologie all’avanguardia – dall’intelligenza artificiale all’informatica quantistica e dalle biotecnologie alla robotica. Tutto questo con l’obiettivo di comprendere quanto le persone siano pronte – sia dal punto pratico, sia da quello emotivo – ad abbracciare un futuro plasmato da tecnologie con cui stiamo ancora facendo i conti.

E ciò che emerge è un divario sempre più ampio: se da un lato i leader aziendali mostrano un forte ottimismo – con un punteggio medio di fiducia pari a 77 su 100 rispetto alle 15 tecnologie prese in esame – il percepito delle persone è nettamente più tiepido (48), con un divario di ben 29 punti. Il risultato è un crescente scollamento tra coloro che implementano le tecnologie e quanti ci si aspetta le utilizzino per lavoro e nella quotidianità.

Il divario di consenso: cosa succede quando la tecnologia si muove troppo velocemente?

Il conflitto più marcato che emerge dallo studio è quello che potremmo chiamare “divario di consenso”. Non ha nulla a che fare con le ormai familiari richieste di consenso al trattamento dei dati personali o con le clausole di esclusione dei cookie. Si tratta di qualcosa di molto più profondo e strutturale: infatti, l’intelligenza artificiale si sta inserendo nelle interazioni quotidiane dei consumatori, in modo spesso invisibile, senza ostacoli e spesso senza consapevolezza. Dalle raccomandazioni sui contenuti ai prezzi delle assicurazioni, dalla scrematura dei candidati nei processi di selezione all’automazione del servizio clienti, le tecnologie all’avanguardia stanno prendendo decisioni che modellano le nostre vite senza accorgercene.

Il pubblico sa riconoscere quando viene impiegata l’intelligenza artificiale? Secondo il Media Literacy Report 2024 di Ofcom, il 44% degli adulti del Regno Unito afferma di non sentirsi sicuro nell’identificare quando l’IA viene utilizzata online. E il Parlamento inglese concorda sul fatto che la questione sia sufficientemente seria da giustificare un esame urgente, come dimostra la nuova indagine sull’alfabetizzazione mediatica avviata dalla Commissione Cultura, Media e Sport, che esaminerà come gli sforzi di alfabetizzazione digitale stiano tenendo il passo con l’evoluzione delle tecnologie come l’IA.

Ma perché dovrebbe interessarci? E cosa rende l’IA diversa?

L’era dell’IA e l’illusione di una partecipazione informata

Nel loro libro “The Age of AI: And our Human Future” Henry Kissinger, Eric Schmidt e l’informatico del MIT Daniel Huttenlocher mettono in guardia contro l’accelerazione incontrollata del cambiamento tecnologico da parte di un’élite auto selezionata. Essi sostengono che stiamo entrando in un’epoca in cui la natura della conoscenza, del processo decisionale e persino di ciò che consideriamo “verità” venga rimodellata da sistemi che a malapena comprendiamo.

In quest’ottica, i risultati dello studio di Hotwire acquisiscono un contesto più nitido. La convinzione che il progresso tecnologico si guadagni naturalmente la fiducia del pubblico è obsoleta. Abbiamo raggiunto un punto in cui i sistemi non vengono più adottati attraverso la persuasione o la comprensione condivisa, ma appaiono semplicemente nelle nostre vite, con poca trasparenza e meno dibattito. Basti pensare a come Meta AI sia stato integrato da un giorno all’altro nelle app WhatsApp e Instagram di tutti.

IA e trasparenza: perché non possiamo trattarla come una semplice calcolatrice

C’è un’analogia ricorrente nel mondo della tecnologia: non abbiamo bisogno di spiegazioni quando qualcuno usa una calcolatrice – quindi perché dovremmo spiegarci quando qualcuno usa l’intelligenza artificiale?

Ma questa analogia mostra subito i suoi limiti. Infatti, le calcolatrici non decidono se puoi ottenere un mutuo, chi viene selezionato per un colloquio di lavoro o se una notizia è attendibile. L’IA invece sì. Queste non sono semplici operazioni matematiche, sono giudizi. Quando le macchine partecipano a decisioni che possono cambiare la vita delle persone è fondamentale capire come e perché quelle decisioni vengono prese. Senza spiegazioni non può esserci responsabilità. E senza responsabilità non può esserci fiducia.Inizio modulo.

I tecnocrati stanno perdendo terreno

Un’altra criticità emersa dal report di Hotwire è di chi ci fidiamo per guidarci in questa era. I leader aziendali considerano credibili gli imprenditori tecnologici, ma il grande pubblico non è d’accordo. Anche oltreoceano sono d’accordo. Infatti, il Pew Research Center ha rilevato che solo una minoranza di americani si fida delle aziende per un uso responsabile dell’IA. La fiducia si sta spostando dagli anticonformisti verso scienziati, ingegneri e ricercatori.

Ed ecco la verità: le persone che guidano l’innovazione – Zuckerberg, Musk, Altman, Bezos – non sono come il resto di noi. E questa non è una polemica, ma un dato di fatto. Sono persone estremamente competenti e ambiziose, spesso neurodivergenti, programmate per risolvere su larga scala e pensare in modo astratto. Questi tratti sono “superpoteri” in campi come la tecnologia e la scienza, dove la cognizione del caso limite crea scoperte. Ma significano anche che le persone che reinventano la società spesso la percepiscono in modo diverso rispetto alle persone che ci vivono. Non è intrinsecamente un male, ma non è nemmeno un processo neutrale. Questo è importante, perché in qualsiasi democrazia funzionante il futuro non può essere costruito solo da un’élite cognitiva. Il progresso richiede partecipazione. Se solo le voci più istruite dal punto di vista tecnico o commerciale stanno plasmando il modo in cui la società si evolve, allora non stiamo innovando, stiamo escludendo.

Se il progresso non è più sinonimo di fiducia, allora la comunicazione tecnologica deve passare dalla spiegazione all’inclusione. Come dimostra il recente sondaggio del governo britannico sugli atteggiamenti pubblici nei confronti dei dati e dell’intelligenza artificiale (Public Attitudes to Data and AI Tracker Survey), il pubblico non ha solo bisogno di visibilità, ma di una voce. Le persone vogliono capire il ruolo che l’intelligenza artificiale svolge nella loro vita, il suo impatto e il modo in cui i loro dati vengono utilizzati nel processo.

La comunicazione non può limitarsi a dichiarazioni etiche, avvisi sull’uso dell’IA e demo appariscenti. I brand devono creare community in cui le persone si sentano invitate a partecipare alla conversazione, luoghi in cui mettere in discussione il sistema non sia un rischio per l’immagine, ma una necessità strategica.

Qui ci sono alcuni suggerimenti con cui i marchi possono migliorare la comunicazione con i propri clienti:

  • Implementare spiegazioni attivabili su richiesta dell’utente: offrire spiegazioni semplici e comprensibili su come lavorano le funzionalità basate sull’IA, soprattutto quando influiscono su decisioni o risultati.
  • Introdurre soggetti di controllo di terze parti: collaborare con accademici o enti normativi per verificare l’utilizzo dell’IA e pubblicare i risultati in maniera trasparente.
  • Valorizzare voci autorevoli: prediligere scienziati, non venditori. Ingegneri, non “evangelist”.
  • Tenere conversazioni reali: utilizzare forum, contenuti o sessioni di ascolto per coinvolgere attivamente gli utenti e raccoglierne le prospettive su come viene implementata l’IA.

Costruire un futuro che includa tutti

Sebbene viviamo in un momento di straordinario progresso, la paura sta comunque crescendo. L’intelligenza artificiale potrebbe trasformare tutto – dalla diagnosi all’istruzione, dalla logistica alla creatività. Ma se questa trasformazione è silenziosa, opaca ed esclusiva, scatenerà una reazione negativa, non una convinzione.

La buona notizia? Le aziende hanno ancora una scelta: credibilità e trasparenza sono i punti chiave per guadagnarsi la fiducia, che è il vero motore dell’adozione.

Quindi, poniamoci domande migliori:

  • Le persone sanno quando interagiscono con l’IA?
  • Capiscono perché e come l’IA sta influenzando i processi decisionali?
  • E il pubblico si sente incluso nel futuro che si sta costruendo intorno a loro?

Se la risposta è “no”, allora non importa quanto sia avanzato il sistema. Non sarà un progresso, ma sarà semplicemente potere incompreso.

                                                                                                     Di Camilo Lascano Tribin in PR Moment