Background Image

Chi decide: noi o l’Intelligenza Artificiale?

Hotwire

Da oltre 20 anni Howire aiuta le aziende del mondo tech a esprimere il loro pieno potenziale. Leggi le opinioni dei nostri esperti e gli approfondimenti del nostro team sugli ultimi sviluppi del settore

È possibile, allo stato attuale, che la nostra prospettiva sull’intelligenza artificiale sia distorta: quando discutiamo le implicazioni dei Large Language Models (LLM) nel campo del marketing, l’attenzione si concentra principalmente su come, attraverso l’intelligenza artificiale, si potranno in futuro automatizzare i compiti più tediosi o supportare i processi creativi. I LLM sono quindi visti alla stregua di assistenti personali che forniscono supporto in varie attività quotidiane. Tuttavia, pensandoci bene, se si realizzassero i piani di Microsoft e Google di integrare le chatbot nelle ricerche sul web, potremmo finire noi al servizio dell’intelligenza artificiale – e non il contrario. 

Ad esempio, Microsoft ha già integrato la sua chatbot in Bing lo scorso febbraio, mentre Google sta attualmente testando il suo prodotto rivale “Bard” e, secondo quanto riferito, sta lavorando su una ricerca basata su chat completamente nuova con il nome in codice “Magi”.  

Al crescere di tecnologie di questo tipo, i professionisti del marketing dovranno adattare le proprie strategie. L’ottimizzazione classica dei motori di ricerca (SEO) e, in certa misura, il content marketing, potrebbero infatti perdere importanza a causa del minor traffico indirizzato ai siti web, mentre emergerebbe la necessità di ottimizzare le chatbot – una disciplina che andrebbe a includere tutte le misure volte a integrare i branded content nei LLM e a influenzare le transazioni delle chatbot nell’interesse dell’azienda in questione. 

 
Le chatbot, questa volta, sono davvero presenti 

Oltre a un senso di sorpresa, i marketer più esperti staranno vivendo una sorta di déjà vu. Ricordiamo, infatti, che la prima ondata di entusiasmo per le chatbot raggiunse il suo apice intorno al 2016, quando si prevedeva che l’80% delle aziende avrebbe avuto il proprio chatbot entro il 2020. Una previsione azzeccata solo in minima parte, però, dato che, se in tanti hanno effettivamente investito in questa tecnologia, per la maggioranza la rivoluzione non è mai avvenuta.  

Si può tracciare un parallelo anche con gli assistenti vocali come Alexa, Siri e Google Home: per anni ci è stato detto che “il 2020 sarebbe stato l’anno in cui la metà di tutte le ricerche sarebbero state ricerche vocali” (per inciso, l’affermazione si basava su statistiche inventate). Poi, all’improvviso, il 2020 è arrivato per davvero, ma a quel punto i dispositivi erano già da tempo relegati negli armadi o utilizzati dai proprietari principalmente per ascoltare musica – e non per effettuare ricerche sul web o addirittura acquisti. 

Le chatbot basate sull’intelligenza artificiale nel 2023 avranno un destino simile? Se vi aspettate una risposta affermativa, smettete pure di leggere l’articolo e iniziate piuttosto a pensare a quando sarà il momento giusto per vendere allo scoperto le azioni Microsoft. 

Okocha non ha mai giocato per lo Schalke 

 Un ostacolo significativo resta l’insufficiente affidabilità della tecnologia. Quando a ChatGPT è stata chiesta la biografia di Jay-Jay Okocha, leggenda calcistica del Francoforte, la chatbot ha raccontato una storia credibile di un giovane giocatore nigeriano di grande talento che cercava la sua occasione nella Germania degli anni ‘90. Tuttavia, se la si confronta con il contenuto di Wikipedia, emerge che il riassunto dei dati anagrafici di Okocha fornito da ChatGPT presenta numerose imprecisioni, dalla data di nascita all’affermazione che Okocha abbia giocato per lo Schalke 04 per due anni. Se poniamo nuovamente la domanda, otteniamo una storia completamente diversa, ma altrettanto falsa. 

Queste imprecisioni sono sistematiche: ChatGPT non risponde alle domande sulla base dei fatti, ma di probabilità statistiche. Genera quindi risposte che sono sì plausibili, ma non necessariamente basate sui fatti – e che, a un esame più attento, raramente lo sono. Come ha recentemente spiegato in un’intervista il CEO di Google, Sundar Pichai, tutti i LLM sono “strabilianti” fino a un certo punto, e nessuno sa ancora esattamente come risolvere questo problema. 

Come si forma un LLM? 

Tutti gli osservatori sono convinti che i modelli attuali continueranno a evolversi in modo significativo. Innanzitutto, è necessario garantire che forniscano informazioni affidabili: solo allora la maggior parte dei casi d’uso previsti potrà funzionare, e solo allora potranno fungere da nuovi canali di marketing. I marketer si chiederanno quindi come integrare i loro contenuti in questi LLM, e i modelli attualmente disponibili offrono già alcune indicazioni. 

OpenAI offre la possibilità di adattare GPT-3 (il modello precedente di ChatGPT) alle proprie esigenze. Ciò avviene fornendo prompt con risposte predefinite come file JSONL. Sono necessarie almeno alcune centinaia di risposte di esempio per insegnare al modello come rispondere a richieste specifiche. Ciò aiuta a garantire che la chatbot risponda correttamente alle domande sul proprio prodotto. 

Questo processo di messa a punto, chiamato “fine-tuning“, attualmente funziona solo se si desidera sviluppare le proprie applicazioni basate sull’API OpenAI, come una chatbot per il servizio clienti o uno strumento che genera automaticamente annunci di testo. ChatGPT, Bard e Bing non offrono ancora interfacce aperte per alimentare questi modelli con informazioni; tuttavia, se venisse trovata una soluzione per filtrare le voci indesiderate, la situazione potrebbe cambiare. Infatti, tale interfaccia consentirebbe ai fornitori di delegare la creazione di dati di formazione strutturati necessari per il miglioramento continuo dei loro modelli. Non appena il primo fornitore annuncerà una funzionalità come questa, sarà il momento per i marketer di seguire un corso di Python. 

Menzioni del brand invece dei backlink 

Anche senza le interfacce descritte è probabile che si creino opportunità di influenza, simili a quanto già sperimentiamo nella tradizionale ricerca web. Il criterio di rilevanza più cruciale in questo contesto è quello dei backlink. Chi riesce ad accumulare un numero significativo di link di alta qualità avrà un chiaro vantaggio nella competizione per le prime posizioni nei risultati di ricerca. Allo stesso modo, potrebbe diventare fondamentale che i brand compaiano con i loro messaggi in punti strategici nei dati di formazione. 

Se ad esempio si chiede alla funzione chat di Bing di consigliare un determinato prodotto, questa non cita mai le pagine dei produttori, ma si affida sistematicamente a fonti secondarie apparentemente neutre come media specializzati, blog o siti di confronto. Non si tratta più tanto di dove la propria azienda viene linkata, ma di dove questa viene menzionata e di quali contenuti sono associati al proprio brand. Sembra che le menzioni del brand abbiano sostituto i backlink come criterio di rilevanza primaria: un’ottima notizia per i professionisti delle pubbliche relazioni. 

Ricerca sul Web o conquista del mondo 

Se l’ottimizzazione delle chatbots si evolverà in una disciplina di marketing a sé stante, e se gli esperti di marketing saranno veramente obbligati a lavorare con l’intelligenza artificiale, dipenderà in definitiva da due fattori: le preferenze degli utenti e la risposta alle sfide tecniche. Innanzitutto, nonostante l’entusiasmo resta ancora incerto se gli utenti preferiranno effettivamente interagire con una chatbot piuttosto che con la tradizionale ricerca sul web; in secondo luogo, vale la pena vedere se e quando le sfide tecniche sopra descritte potranno essere risolte. Sarebbe però pretenzioso e certamente imprudente trascurare una tecnologia che, secondo alcuni, potrebbe un giorno aspirare a dominare il mondo, anche nell’ambito delle ricerche sul web.