Ainem e GreatPixel lanciano INO: International Neuromartech Observatory

Dalla visione strategica di AINEM – Associazione Italiana Neuromarketing e l’agenzia innovativa GraetPixel nasce INO: International Neuromartech Observatory, un progetto di ricerca impegnato ad esplorare e definire l’intersezione, sempre più in evoluzione, tra neuroscienze, tecnologie di marketing e l’intelligenza artificiale (neuromartech.com).

L’International Neuromartech Observatory ha come obiettivo anticipare ed analizzare l’evoluzione in corso nel mercato martech grazie all’integrazione delle neuroscienze e dell’intelligenza artificiale. Grazie alle nuove tecnologie, infatti, i marketer potranno potenzialmente fare leva su nuovi servizi in grado di remotizzare e digitalizzare le ricerche sul vissuto emotivo, sull’attenzione e sul comportamento dei clienti o perfino predire in anticipo i risultati delle campagne di marketing, sfruttando una grande mole di dati e informazioni.

Attività di ricerca

La ricerca si concentra sulla “AI-powered neuromartech”: raccolta dati a distanza e analisi predittiva del comportamento dei consumatori. Le aree chiave comprendono la previsione della risposta emotiva, il riconoscimento delle emozioni in tempo reale, l’analisi dei dati biometrici, il tracciamento oculare e il rilevamento del modello vocale, combinati con modelli predittivi con la finalità di perfezionare le strategie di marketing e migliorare la personalizzazione.

Sviluppo di standard

L’INO guiderà lo sviluppo di standard industriali, includendo: protocolli tecnici per la raccolta dei dati e la convalida del modello AI, linee guida etiche sulla privacy e il consenso informato, criteri di qualità per garantire l’accuratezza delle misurazioni, la validità dei dati e la compatibilità tra piattaforme, con specifiche di integrazione e requisiti di trasparenza.

Condivisione delle informazioni e attività proposte

L’INO promuoverà la condivisione delle conoscenze attraverso white paper sulle tecnologie emergenti, briefing tecnici periodici per gli stakeholders del settore, una conferenza internazionale annuale sulle innovazioni nel campo del neuromartech, seminari ed eventi di divulgazione, un archivio online dei risultati convalidati della ricerca e una piattaforma di collaborazione tra aziende-università sul sito neuromartech.com.

Le neuroscienze unite alle nuove tecnologie, come l’intelligenza artificiale, sono già una realtà e diventeranno uno strumento sempre più fondamentale nel vincere la sfida della rilevanza, creare comunicazioni più coinvolgenti e monitorare sistematicamente le metriche legate all’emozione e all’attenzione nelle proprie campagne pubblicitarieafferma Giovanni Pola, ideatore e coordinatore di INO.

“AINEM è impegnata da anni nella definizione e promozione del NEUROMARKETING e delle Neuroscienze Applicate attraverso ricerche, knowledge transfer, divulgazione, e con questo nuovo Osservatorio internazionale faremo leva sulle nostre numerose connessioni con i centri di ricerca di tutto il mondo per ricondurre l’evoluzione tecnologica al rigore scientifico, per dare un nuovo strumento evolutivo al mercato del marketing e della ricerca” afferma  Francesco Gallucci, vicepresidente AINEM – Associazione Italiana Neuromarketing, e direttore scientifico di INO.

Per ulteriori informazioni: 

Neuromartech Observatory neuromartech.com
neuromartech@greatpixel.it 
info@ainem.it

Giovanni Pola


Accessibilità web, user-centricity e reputazione aziendale: linee guida e buone pratiche per garantire l’accesso alle informazioni online

L’accessibilità web è un aspetto cruciale nell’era digitale odierna, garantendo che chiunque, indipendentemente dalle capacità, possa accedere e utilizzare le informazioni online.

Normative come la “Legge Stanca” e l’European Accessibility Act hanno regolato la necessità per le aziende di esporre la propria dichiarazione di accessibilità. Adottare queste misure non è solo un dovere legale ma rappresenta un’opportunità di investimento per le aziende di migliorare la loro reputazione, promuovendo l’inclusione sociale.

Tuttavia quando si parla di comunicare digitalmente, non possiamo non sottolineare l’esigenza dell’accessibilità riguardo i documenti che condividiamo. Come GreatPixel, infatti, abbiamo intrapreso una nuova policy con cui vogliamo sottolineare l’impegno nella creazione di documenti accessibili. 

Cosa rende un documento accessibile? 

Ovviamente, dobbiamo far riferimento alle World Content Accessibility Guidelines (WCAG).
Vediamo alcuni principi base che rendono accessibili i nostri documenti, facendo sempre riferimento alle WCAG per i PDF.

1. Contrasti di colore e leggibilità
Come per il web, è importante utilizzare un contrasto colore ed una dimensione degli elementi che garantisca la leggibilità. Ecco alcuni dei tool che preferiamo:
Contastchecker
Accessible Palette

2. Utilizzare sempre testi alternativi per le immagini
Proprio come per i siti web, è fondamentale fornire agli utenti un testo descrittivo esplicativo delle immagini presenti nel documento in modo che chiunque possa comprenderne il contenuto.

3. Garantire un buon ordine di lettura

Per accedere al documento, gli screen reader utilizzano i tag per comprenderne la struttura. Occorre quindi:

  • Strutturare il layout con titoli e paragrafi
    Per poter identificare il contenuto testuale con dei Tag, è necessario strutturare il documento con titoli e paragrafi. Perciò è consigliabile utilizzare un template che li distingua all’interno del contenuto.
  • Creare un ordine di lettura logico
    Se occorre inserire più elementi all’interno della stessa pagina, disporli  in modo da avere un ordine di lettura sensato.
  • Utilizzare pochi elementi
    Evitare di creare troppa confusione all’interno del documento, Keep it simple! Gli utenti apprezzeranno lo sforzo nel presentare le informazioni in maniera sintetica ed ordinata. 

4. Creare dei Bookmarks per la navigazione
Se il tool utilizzato non li genera in automatico, inserire dei bookmarks all’interno del PDF in modo da rendere accessibile la struttura del documento. Per farlo si può utilizzare una qualunque applicazione di editing per PDF. Quando viene esportato il documento in formato PDF, assicurarsi che contenga dei Tag.

I tag identificano gli elementi (testo, grafica, immagine) che verranno poi letti dallo screen reader e vengono generati automaticamente dal programma.
Utilizzando strumenti come Adobe Acrobat si può verificare che la creazione dei Tag sia avvenuta in maniera corretta.

Emanuele Giovanili, Alessia Damone


Intelligenza Artificiale e i nuovi approcci in comunicazione: il caso Levi’s

Negli ultimi decenni, l’Intelligenza Artificiale ha ridefinito il nostro modo di vivere, lavorare e comunicare. Le sue origini risalgono alla seconda guerra mondiale, infatti è a partire dal 1940 che si sviluppa concretamente il primo progetto. Quella dell’Intelligenza Artificiale è una disciplina che si occupa di sviluppare sistemi hardware e software in grado di simulare le capacità e il comportamento del pensiero umano. 

“L’AI è una macchina che può apprendere, ragionare e prendere decisioni in modo autonomo, proprio come fa l’uomo.”

Nonostante la sua apparente rivoluzionarietà, il concetto di Metaverso non è una novità assoluta. Originariamente coniato nel romanzo cyberpunk Snow Crash di Neal Stephenson, ripreso successivamente da Mark Zuckerberg, fondatore di Facebook, il termine è utilizzato in giochi come Fortnite, The Sandbox, Roblox e Decentraland. 

È nel 2021 che Zuckerberg annuncia il rebranding di Meta e il progetto di una piattaforma destinata a rivoluzionare l’interazione umana, passando da una Social Media Company ad una Metaverse Company. 

Tra il 1940 e il 1973, grazie ad una particolare convergenza storica e scientifica, si è assistito a un periodo di incessante ed incalzante ricerca che ha enormemente contribuito al progresso.

  • Dapprima, infatti, è stato scoperto il funzionamento della rete di neuroni che compone la struttura interna del cervello; 
  • Norbert Wiener ha sviluppato le teorie cibernetiche di controllo e stabilità delle reti elettriche, seguito da Alan Turing con la teoria del calcolo; 
  • per finire, Claude Shannon ha elaborato la sua teoria dell’informazione. 

È sorto, così, un interrogativo comune: è possibile costruire un cervello elettronico? 

Proprio da questo impulso ha avuto origine l’idea di concepire una macchina pensante, un automa in grado di compiere azioni umane, di imparare e perfino di parlare. In questo percorso ha svolto un ruolo decisivo il Dartmouth Summer Research Project del 1956: un evento che segna la nascita dell’Intelligenza Artificiale come vera e propria disciplina scientifica. La crescita esponenziale dell’AI è culminata negli anni novanta, quando la macchina Deep Blue ha sconfitto pubblicamente il campione mondiale di scacchi Garry Kasparov, mettendo in discussione le capacità umane e dando prova per la prima volta di una macchina che poteva ragionare come un essere umano. Da quel momento, l’AI ha permeato sempre più la nostra vita quotidiana, sollevando interrogativi etici e pratici.

 

Definire l’Intelligenza Artificiale

L’AI ha progressivamente esteso la sua presenza in tanti settori, dalla medicina alla finanza fino alla comunicazione, rendendo la vita dell’uomo in molti casi più facile e sicura. L’AI, denominata anche AI Generale, si riferisce a tutte le funzioni cognitive svolte da una macchina e che sono difficilmente distinguibili da quelle compiute da un essere umano. Si tratta quindi dell’abilità di apprendere, ragionare e prendere decisioni autonomamente. Queste abilità aprono oggi nuove frontiere nelle applicazioni pratiche ma generano anche un ampio dibattito etico che continua ad evolversi con l’avanzare della tecnologia.

“L’AI sta progressivamente cambiando il rapporto tra persone e tecnologie e, nel prossimo futuro, i suoi ulteriori sviluppi potranno potenziare sempre più l’ingegno umano grazie ad una sempre maggiore precisione e velocità.” 

Ci sono vastissime aspettative relative ai futuri sviluppi di questi strumenti tecnologici, sempre più presenti nella quotidianità delle persone. Questo porterà alla necessità di una regolamentazione, specialmente per quanto riguarda la capacità dell’AI di essere oggettiva e senza pregiudizi.

 

La dimensione etica dell’AI

Una coalizione di scienziati, imprenditori e matematici ha sottolineato i potenziali rischi derivanti da un uso indiscriminato dell’AI. Un primo significativo passo è stato compiuto nel 2023, dal Parlamento Europeo, con l’AI Act. Si tratta di un documento finalizzato a disciplinare l’utilizzo dell’AI per garantire sicurezza, privacy e per evitarne l’uso a scopi discriminatori. L’Act regola quindi l’uso dell’AI che, se usata impropriamente, può risultare dannosa per l’equilibrio sociale e politico.

 

L’AI nella comunicazione e nella pubblicità

L’applicazione dell’AI nell’ambito della comunicazione è stata rivoluzionaria: grazie a strumenti come ChatGPT e Dall-E 3 è oggi possibile generare testi, poesie, disegni e immagini. Ma l’evoluzione non si ferma: infatti, proprio negli ultimi mesi, stiamo assistendo ad un nuovo fenomeno comunicativo, ovvero l’integrazione dell’Intelligenza Artificiale alla CGI. Questa unione ha introdotto un nuovo paradigma di comunicazione, permettendo la creazione di immagini e video che tendono a sbalordire l’utente e a coinvolgerlo in prima persona nel mondo creativo del suo brand preferito. Si parla in questo senso di PAV (Paradosso – Azione – Vivido) ovvero il ricorso ad immagini surreali, principalmente in movimento, rese realistiche da ambientazioni familiari allo spettatore. Grazie a questo espediente è possibile rendere le campagne in grado di imprimere, nella mente di chi le vede, un’immagine unica e memorabile del brand. Inoltre, a differenza delle produzioni tradizionali che richiedono set fisici, attori e operazioni complesse di post-produzione, le campagne in CGI offrono una soluzione più economica e sostenibile. La possibilità di creare scenari virtuali riduce notevolmente i costi logistici e ambientali, consentendo alle aziende di concentrare le risorse su idee creative e strategie di marketing più avanzate.

Il caso Levi’s 

Lo sviluppatore e technical writer Aaron Brancotti, coautore del libro “Metaverse Architect”, enfatizza anch’esso l’importanza dell’umanità come risorsa primaria del Metaverso. Secondo Brancotti, è essenziale considerare la componente umana e le dinamiche sociologiche e antropologiche nella dimensione tecnologica del metaverso. Costruire un metaverso non è paragonabile a girare un film, ma più simile a creare un palinsesto di eventi. Il metaverso non è solo tecnologia, ma la congiunzione di tecnologia e umanità, incarnando un paradigma di interazione uomo-tecnologia, noto come design dell’interazione.


Big players: brand experiences di successo

Il noto e iconico brand Levi’s ha sviluppato un progetto che connette Intelligenza Artificiale e moda. La scelta dell’utilizzo dell’AI testimonia l’approccio innovativo di Levi’s, che nell’ultimo anno ha realizzato dei modelli virtuali di jeans grazie a questo strumento

Per migliorare l’esperienza d’acquisto dei propri consumatori, l’azienda ha deciso di proporre dei modelli virtuali, pensati per rendere ancora più funzionale la ricerca del jeans perfetto. Levi’s, grazie alla collaborazione con Lalaland, azienda olandese fondata nel 2019 che si occupa di comunicazione con l’AI, è riuscita, dopo dei test iniziali, a rendere il processo d’acquisto online di un prodotto ancora più distintivo e realistico. Ogni capo, infatti, può essere visualizzato indosso ad un singolo modello o modella, tenendo conto delle varie differenze di corporatura, taglia ed età dei potenziali clienti. I modelli virtuali non sostituiranno i modelli umani, ma andranno a collaborare con loro come già accade in altri contesti.

Data la propensione di Levi’s nei confronti dell’Intelligenza Artificiale, perché non sviluppare un’intera campagna di comunicazione generata con l’AI?

Immaginare la prossima campagna pubblicitaria

Abbiamo allora immaginato qualche stimolo di comunicazione ulteriore per sviluppare ulteriormente i discorsi e le pratiche legate all’applicazione dell’AI Generativa per il brand. Nelle fasi iniziali di analisi del brand Levi’s e nello sviluppo della strategia di comunicazione è stato utilizzato ChatGPT. Il chatbot si è rivelato un solido fondamento per la successiva fase di creatività, nella quale sono state generate immagini tramite i tool Dall-E 3 e Microsoft Bing

 

Immaginiamo la campagna di comunicazione sviluppata in autunno, per un periodo di circa un mese. La comunicazione verebbe diffusa attraverso diversi canali, dal tradizionale cartellone pubblicitario a quelli interattivi, abbracciando il guerrilla marketing realizzato in alcuni luoghi di Milano, tramite  dei Pop-up store e all’interno di alcuni negozi del brand. All’interno del Pop-up store e nei negozi, verrebbero distribuiti dei gadget, come portachiavi a forma di jeans, spille e calamite, per tutta la durata della campagna. Inoltre, la comunicazione sarebbe veicolata anche attraverso delle immagini CGI, realizzate nei luoghi iconici della città, come piazza Duomo.

La comunicazione si concluderebbe con una sfilata del brand, per la quale verrebbe creato un invito di partecipazione indirizzato ad influencer, tramite i quali sarebbero creati user generated content attraverso l’unboxing della scatola. La sfilata verrebbe trasmessa sui canali social per rendere partecipe il maggior numero di persone. La location della sfilata sarebbe una fabbrica dismessa, pensata per mettere in risalto i primi utilizzi del jeans 501, indossato inizialmente proprio dai lavoratori.

AI Generativa e Prompt Engineering: alcune considerazioni sui tentativi falliti 

Nel corso dell’elaborazione visiva del progetto, si è cercato di coinvolgere i lettori attraverso la generazione di immagini esplicative. Per ottenerle, sono stati forniti prompt dettagliati a Dall-E 2, seguiti da correzioni successive attraverso ulteriori prompt. Inizialmente si sono riscontrate difficoltà nella generazione di immagini con questo tool, con risultati insoddisfacenti e rappresentazioni datate, talvolta con errori nelle scritte. Nell’elaborazione delle foto destinate ai cartelloni, è stato necessario guidare l’Intelligenza Artificiale passo dopo passo attraverso il proprio pensiero. Nei modelli è stato essenziale suggerire un approccio più umano. I tentativi iniziali hanno fatto sorgere dubbi sulla correttezza e articolazione dei prompt, portando a chiedere a ChatGPT di generare ulteriori, ma i risultati ottenuti sono risultati sempre imperfetti e poco verosimili. Esplorando vari strumenti di generazione di immagini, è stata trovata una soluzione attraverso la generazione di immagini tramite Microsoft Bing, che ha prodotto risultati accettabili fin da subito grazie alla tecnologia che integra Dall-E 3 a ChatGPT 4. La sorpresa è stata nella qualità delle immagini e la varietà di stili artistici offerti. Inoltre, le immagini generate sono risultate fin da subito fedeli al prompt inserito, senza la necessità di inserire troppi dettagli. Questo ha sottolineato la necessità di guidare l’intelligenza artificiale, evidenziando che, nonostante i progressi nel tempo, sarà sempre l’umano a dettare il ritmo del lavoro.

In occasione del lancio sul mercato della nuova birra Heineken Silver, il brand ha creato la prima birreria virtuale nel Metaverso di Decentraland. In questo spazio, disegnato in collaborazione con lo street artist spagnolo J. Demsky, il visitatore può informarsi sulle qualità della birra, parlare con esperti o scoprire gli abbinamenti. 

Implicazioni sull’industria della moda e della pubblicità

L’utilizzo dell’AI nell’industria pubblicitaria e della moda presenta prospettive entusiasmanti. La possibilità di generare contenuti creativi in modo efficiente potrebbe portare a una riduzione delle spese pubblicitarie e a una maggiore attenzione verso la ricerca e la sostenibilità. Tuttavia, sorgono domande cruciali sull’impatto sociale e lavorativo, con la possibile obsolescenza di alcune figure professionali sostituite dall’automazione. Benché ci sia preoccupazione riguardo la possibile scomparsa di numerosi posti di lavoro, è necessario considerare quante nuove posizioni lavorative saranno create. Secondo le stime della Goldman Sachs, “le AI potrebbero sostituire il 25% delle vecchie occupazioni a livello mondiale”, tuttavia, la perdita di lavoro a causa dell’automazione sarà compensata dalla creazione di nuove occupazioni dedicate allo studio e alla formazione che riguardano queste nuove tecnologie. Potrebbero nascere molte nuove figure professionali nel settore sanitario, automobilistico, assicurativo, e-commerce e persino nel fitness con l’offerta di servizi di personal training. Altrettanto potrebbe accadere in settori come quello dei giochi da tavolo, del giornalismo, dell’arte e della cybersecurity. D’altra parte, per la guida e la gestione di macchine di Intelligenza Artificiale sarà sempre necessaria la presenza umana.

Il futuro della collaborazione tra uomo e Intelligenza Artificiale

L’esperienza e l’esperimento con il brand Levi’s hanno evidenziato l’importanza di una guida umana nell’utilizzo dell’AI. Nonostante i notevoli progressi, l’AI richiede ancora una supervisione umana per ottenere risultati di qualità. Mentre l’Intelligenza Artificiale continua ad evolvere, è necessario adottare un approccio attento e consapevole per massimizzare i benefici senza trascurare le implicazioni etiche e sociali.

L’Intelligenza Artificiale rappresenta comunque una risorsa potente e trasformativa nella nostra società, con applicazioni trasversali. La collaborazione tra l’AI e brand (in particolare quelli iconici come Levi’s) segna l’inizio di una nuova era nella pubblicità e nella moda, in cui l’innovazione tecnologica e la creatività umana si fondono per plasmare il futuro.

Fonti

Contucci P.,2023, Rivoluzione Intelligenza artificiale. Sfide, rischi e opportunità, Dedalo.

Henry A. Kissinger, Eric Schmidt, Daniel Huttenlocher, 2023, L’Era dell’Intelligenza Artificiale, Mondadori.

Sassoon J., 2019, Storytelling e Intelligenza Artificiale, FrancoAngeli.

Alba Chiara Zito


Learnability vs usability: cosa abbiamo capito su anziani e coronavirus

Il coronavirus ha spostato tutti gli aspetti della nostra vita dal mondo reale a quello virtuale. L’aumento delle connessioni da casa (secondo gli ultimi dati forniti da Fastweb all’Agcom, i momenti di picco si sono innalzati del 40%), la tipologia di app che ora sono più scaricate sugli store mobile, lo spostamento anche dei meeting degli A.A. su Zoom e la recente “rivoluzione” della ricetta medica tramite SMS ne sono un chiaro segnale.

In questa situazione c’è da chiedersi: la tecnologia è pronta per essere usata da tutti gli utenti?

La risposta è no. Nonostante i molteplici studi fatti, sono ancora costretto a dover andare da Milano a Piacenza per aiutare mia zia che, non per colpa sua, non riesce ad usare la intranet aziendale (di cui non posso fare nomi, ma è una delle intranet più usate in Italia) perché chi l’ha progettata pretendeva che utenti dell’età media di 60 anni capissero, ad esempio, che potevano trovare i propri cedolini sotto la voce di menù “myspace” (contrapposta a “mywork”). Con il coronavirus, ho dovuto farle installare TeamViewer tramite una videochat su whatsapp, per poter continuare ad assisterla senza problemi.

Ma torniamo all’argomento principale: come facciamo a progettare un’interfaccia che non richieda l’assistenza costante di un’altra persona?

Per rispondere a questa domanda, ho deciso di fare un po’ di ricerche.

Cosa genera maggiore difficoltà?

Uno studio recentemente pubblicato da alcuni ricercatori delle università australiane di Queensland, Canberra e della Sunshine Coast ("The effects of redundancy in user-interface design on older users” Reddy, Blackler, Popovic, Thompson & Mahar, 2019) ha cercato di capire se le interfacce “ridondanti” (ovvero, che comprendessero sia icone che testo) fossero più facili da navigare da parte degli anziani rispetto a quelle con solo testo o con solo icone. La risposta è stata molto interessante: le interfacce ridondanti e quelle con solo icone risultano più difficili da elaborare per gli utenti più anziani, rispetto alle interfacce in cui è presente solo testo.

Perché le icone non funzionano con gli anziani?

Secondo gli studi, il nostro cervello sviluppa prima la capacità di elaborare le immagini rispetto a quella di elaborare la parola. Tuttavia, lo sviluppo di questa capacità si arresta prima e decade più rapidamente, rispetto all’elaborazione del testo. Ciò significa che gli utenti più anziani compiono un maggiore sforzo cognitivo per elaborare una immagine e associarla al suo significato e azione.

Pensiamo al tasto “start” di Windows 10. 

Al di là della sua posizione (in basso a sinistra, rispettando l’amatissima e abusatissima legge di Fitts), questa icona di menu principale risulta poco comprensibile per un anziano: i quattro rettangoli, infatti, stanno a significare una finestra, con diretto riferimento all'inglese "Windows", da cui poter accedere a tutti i programmi. Chi non conosce l’inglese e non è avvezzo ad una metafora simile (una repository con tutti i tool) può avere più difficoltà a fare questo tipo di associazione. Inaspettatamente, lo studio ha anche dimostrato come la curva di apprendimento (autonomo) di una interfaccia ridondante fosse più alta rispetto a quella di una interfaccia solo testo. Il fattore ancora più interessante è stato che sulle interfacce che presentavano solo testo, le persone più anziane hanno avuto la medesima abilità delle persone più giovani, riuscendo a compiere le task senza chiedere un aiuto, benché ci abbiano messo leggermente più tempo per farlo (i giovani hanno performato meglio in assoluto nelle interfacce ridondanti).

La soluzione è eliminare tutte le immagini e icone?

Non proprio. Nonostante l’alto sforzo iniziale, le immagini hanno la caratteristica di rimanere più a lungo nella memoria a lungo termine a differenza delle informazioni testuali. Attraverso la ripetizione delle azioni, una volta imparato il significato di un’icona, una persona anziana avrà molta più facilità a ricordare cosa quell’icona faccia, anche senza il supporto testuale. Inoltre, icone e immagini aiutano a rendere più facilmente scansionabile una interfaccia, evidenziando le zone più importanti: una interfaccia solamente testuale, per quanto ben gerarchizzata, rischia di aumentare il carico cognitivo dell'utente per la quantità di informazioni mostrate.

Non progettate interfacce intuitive

Torniamo alla domanda iniziale: la tecnologia è pronta per essere usata da tutti gli utenti? No.

Analizziamo Skype, Zoom o altri tool che oggi vengono usati per la situazione Coronavirus. 

Molte delle funzionalità, anche di base, possono risultare complesse ai neofiti della tecnologia e agli anziani. Fino a quando si tratta, ad esempio, di chiudere una chiamata, la maggior parte degli utenti riesce a capire qual è il bottone necessario, spesso evidenziato di rosso (anche se l’assenza di label rende il bottone meno comprensibile ad alcuni). Nel momento in cui è necessario fare una operazione un po’ più complessa, come condividere lo schermo, molti si trovano in difficoltà. Skype usa un'icona poco chiara, Google Meet usa un linguaggio sia visivo che testuale, difficile da capire immediatamente (“Present now”), anche da utenti un po’ più esperti.

È vero, se è l’unico strumento per ottenere un risultato, le persone si impegnano per capire come funziona un software o un’app. Tuttavia, la tecnologia che non si adatta alle persone aumenta il rischio di errori, talvolta anche gravi (ricordate il caso del messaggio inviato per errore alle Hawaii?). Per quanto molti di questi programmi vengano usati spesso, non possono essere definiti intuitivi. Almeno non per tutti.

Un'interfaccia “intuitiva” è tale quando tutti gli utenti riescono ad eseguire tutte le task (o la maggior parte di esse) senza necessità di aiuti esterni. Alcune definizioni sottolineano anche l’assenza del “trial and error” nella definizione di “intuitiva”: effettuare tutte le task senza fare dei tentativi. Vorrebbe dire che tutti gli utenti partono da background simili, per poter arrivare alle medesime conclusioni.

Ma tutto questo, come ha dimostrato la ricerca, non è realistico. Non è possibile progettare interfacce davvero intuitive. È necessario trovare un punto di vista diverso.

Progettate esperienze di apprendimento

Dobbiamo cambiare approccio progettuale. Perchè la tecnologia si adatti davvero ad ogni tipo di utente, non possiamo più progettare solo flussi ed interfacce. Dobbiamo definire dei veri e propri percorsi di apprendimento dell’interfaccia, trasformando il concetto di intuitive interfaces in learnable interfaces: interfacce che aiutano gli utenti nel loro processo di apprendimento, adattandosi ai tempi e alle conoscenze di ciascuno. 

Nella pratica questo può essere fatto sia arbitrariamente, attraverso la costante analisi dei dati (poco consigliato), oppure attraverso strumenti di machine learning (decisamente più consigliato). Non è fantascienza: la tecnologia odierna permette già questo tipo di analisi. Ad esempio, Facebook circa un anno e mezzo fa ha introdotto la tab bar dinamica sulla propria app, personalizzata in base agli usi degli utenti. Ma potremmo fare tanti altri esempi: motori di raccomandazione, personalizzazione delle interfacce in base al luogo in cui un utente si trova…

Il limite sta soltanto nella nostra voglia di accogliere questa vecchia/nuova sfida: adattare le macchine alle persone e non le persone alle macchine.