L’intelligenza artificiale per la ricerca sulle persone: un caso di studio

federico badaloni
4 min readJul 10, 2023

Recentemente Luca Rosati (L’intelligenza artificiale al servizio dello user experience design) e Luisa Carrada (Tra miracoli verbali e prompt sperimentali) hanno ragionato sulle applicazioni dell’intelligenza artificiale nell’ambito dello UX Design e della scrittura.

Eugenio Menichella e Luca Passarelli raccontano qui come abbiamo sfruttato varie forme di intelligenza artificiale mentre conducevamo una ricerca etnografica in Gedi Digital.

La ricerca era basata su una serie di interviste con l’obbiettivo di creare delle personas per uno dei prodotti del Gruppo.

Le interviste, tutte in remoto e fatte usando la piattaforma Teams, sono state registrate in audio e video e caricate su Condens, il tool che usa la nostra area per gestire e analizzare i risultati del lavoro di ricerca e per generare i documenti da distribuire agli stakeholder dei vari progetti.

La prima AI: speech to text

Condens usa un sistema di intelligenza artificiale per trasformare in testo il contenuto audio delle interviste.

L’intelligenza artificiale ha avuto qualche difficoltà a convertire in maniera corretta l’audio delle interviste in testo generando numerosi errori ed artefatti dovuti alle “sporcature” del linguaggio parlato e, dunque, abbiamo dovuto correggere manualmente le trascrizioni per renderle più fluide e “leggibili”.

L’apporto della funzione di speech to text è stato comunque essenziale nel ridurre in maniera drastica i tempi di trascrizione delle interviste pur richiedendo la rilettura successiva.

Abbiamo quindi taggato i contenuti audio/video e il testo correlato e chiesto a Condens di clusterizzare i contenuti taggati. Siamo poi intervenuti direttamente per raffinare i cluster così ottenuti.

La seconda AI: ChatGPT prompt

A questo punto abbiamo esportato il contenuto testuale dei vari cluster in un file di testo vero e proprio in cui ogni paragrafo corrispondeva ad una citazione del testo delle interviste con il o i tag corrispondenti .

Abbiamo quindi chiesto a ChatGPT di taggare a sua volta e raggruppare questi paragrafi in base alle 4 dimensioni tipiche delle personas: Bisogni, Motivazioni, Preoccupazioni e Aspirazioni.

L’analisi che nel frattempo avevamo fatto delle interviste e dei cluster conseguenti alla taggatura ci aveva indirizzato verso l’ipotesi che potessero emergere 3 personas dai dati raccolti.

Il passaggio successivo è stato quindi chiedere, sempre a ChatGPT, di creare 3 personas basandosi sul risultato dell’analisi dei raggruppamenti ottenuti nell’attività precedente.

Il risultato di questa ulteriore richiesta alla AI sono state le bozze di 3 personaggi piuttosto coerenti anche se molto “piatti”.

È interessante notare come ChatGPT non abbia avuto bisogno di spiegazioni su cosa fossero le personas e su come dovessero essere rappresentate.

Il risultato ottenuto con l’AI non era decisamente sufficiente quindi abbiamo ripreso in mano i nostri cluster e la nostra taggatura e completato le personas.

In alcuni casi abbiamo dovuto aumentare le differenze tra essi, renderli più identitari e vivi: le bozze generate da ChatGPT erano troppo sovrapponibili e poco “azionabili” anche se quella che per noi è diventata la persona principale era effettivamente quella con le caratteristiche meglio delineate anche nella bozza.

Nonostante gli oggettivi limiti delle bozze di personas create dalla AI questo processo ci ha consentito di arrivare a quel punto in non più di un’ora di lavoro dal momento in cui abbiamo completato la clusterizzazione dei tag.

Abbiamo quindi potuto dedicare molto più tempo alla rifinitura e alle riflessioni necessarie per rendere le personas complete, coerenti e “vive”.

La terza AI: Adobe Firefly

Per completare le personas abbiamo alla fine chiesto ad Adobe Firefly di generare le loro immagini: abbiamo passato alla AI la descrizione generica creata per ciascuna persona.

Anche in questo caso i risultati ottenuti sono stati piuttosto “neutri” e decisamente influenzati da bias molto “nord-americani” costringendoci a rendere le istruzioni più identificative ed estreme soprattutto per quanto riguarda le età dei personaggi rappresentati (essendo noi, a nostra volta, influenzati dai nostri bias).

Un’altra cosa che abbiamo notato è stata anche la scelta di colori delle ambientazioni e degli abiti: tutti molto piatti e neutri ma, a tale riguardo, non avevamo dato alcuna indicazione nelle nostre istruzioni quindi è possibile quello fosse il risultato di questa mancanza.

L’impressione generale è stata quindi che gli strumenti di AI possano essere estremamente utili per ridurre drasticamente i tempi di operazioni spesso lunghe e poco “creative” ma che, poi, richiedano comunque l’apporto essenziale di esseri umani che con la loro esperienza e competenze inseriscano i risultati ottenuti in contesti, li mettano in relazione tra loro, li completino con quelle dimensioni che le intelligenze artificiali, al momento, non sembrano in grado di dare.

La capacità di dare le istruzioni corrette è l’altro tema centrale. Luisa Carrada, nell’articolo citato, ci fornisce un bell’esempio di come fare le domande giuste instaurando un processo virtuoso in cui impariamo sia noi che l’intelligenza artificiale.

È quello il momento in cui i bias del ricercatore possono influenzare molto i risultati che verranno restituiti dalla AI che, come sappiamo (vedi l’articolo citato in precedenza di Luca Rosati), sono a loro volta influenzate dai processi di assimilazione dei dati e dagli algoritmi che entrano in azione nelle fasi di apprendimento.

Eugenio Menichella e Luca Passarelli

--

--