Ainem e GreatPixel lanciano INO: International Neuromartech Observatory
Dalla visione strategica di AINEM – Associazione Italiana Neuromarketing e l’agenzia innovativa GraetPixel nasce INO: International Neuromartech Observatory, un progetto di ricerca impegnato ad esplorare e definire l’intersezione, sempre più in evoluzione, tra neuroscienze, tecnologie di marketing e l’intelligenza artificiale (neuromartech.com).
L’International Neuromartech Observatory ha come obiettivo anticipare ed analizzare l’evoluzione in corso nel mercato martech grazie all’integrazione delle neuroscienze e dell’intelligenza artificiale. Grazie alle nuove tecnologie, infatti, i marketer potranno potenzialmente fare leva su nuovi servizi in grado di remotizzare e digitalizzare le ricerche sul vissuto emotivo, sull’attenzione e sul comportamento dei clienti o perfino predire in anticipo i risultati delle campagne di marketing, sfruttando una grande mole di dati e informazioni.

Attività di ricerca
La ricerca si concentra sulla “AI-powered neuromartech”: raccolta dati a distanza e analisi predittiva del comportamento dei consumatori. Le aree chiave comprendono la previsione della risposta emotiva, il riconoscimento delle emozioni in tempo reale, l’analisi dei dati biometrici, il tracciamento oculare e il rilevamento del modello vocale, combinati con modelli predittivi con la finalità di perfezionare le strategie di marketing e migliorare la personalizzazione.
Sviluppo di standard
L’INO guiderà lo sviluppo di standard industriali, includendo: protocolli tecnici per la raccolta dei dati e la convalida del modello AI, linee guida etiche sulla privacy e il consenso informato, criteri di qualità per garantire l’accuratezza delle misurazioni, la validità dei dati e la compatibilità tra piattaforme, con specifiche di integrazione e requisiti di trasparenza.
Condivisione delle informazioni e attività proposte
L’INO promuoverà la condivisione delle conoscenze attraverso white paper sulle tecnologie emergenti, briefing tecnici periodici per gli stakeholders del settore, una conferenza internazionale annuale sulle innovazioni nel campo del neuromartech, seminari ed eventi di divulgazione, un archivio online dei risultati convalidati della ricerca e una piattaforma di collaborazione tra aziende-università sul sito neuromartech.com.
“Le neuroscienze unite alle nuove tecnologie, come l’intelligenza artificiale, sono già una realtà e diventeranno uno strumento sempre più fondamentale nel vincere la sfida della rilevanza, creare comunicazioni più coinvolgenti e monitorare sistematicamente le metriche legate all’emozione e all’attenzione nelle proprie campagne pubblicitarie” afferma Giovanni Pola, ideatore e coordinatore di INO.
“AINEM è impegnata da anni nella definizione e promozione del NEUROMARKETING e delle Neuroscienze Applicate attraverso ricerche, knowledge transfer, divulgazione, e con questo nuovo Osservatorio internazionale faremo leva sulle nostre numerose connessioni con i centri di ricerca di tutto il mondo per ricondurre l’evoluzione tecnologica al rigore scientifico, per dare un nuovo strumento evolutivo al mercato del marketing e della ricerca” afferma Francesco Gallucci, vicepresidente AINEM – Associazione Italiana Neuromarketing, e direttore scientifico di INO.
Per ulteriori informazioni:
Neuromartech Observatory neuromartech.com
neuromartech@greatpixel.it
info@ainem.it
Giovanni Pola
Web accessibility, user-centricity, and corporate reputation: guidelines and best practices to ensure access to online information.
Web accessibility is a crucial aspect in today's digital age, ensuring that everyone, regardless of their abilities, can access and use information online.
Regulations such as the “Stanca Law” and the European Accessibility Act have mandated that companies display their accessibility statement. Adopting these measures is not only a legal obligation but also an investment opportunity for companies to enhance their reputation by promoting social inclusion.
However, when it comes to digital communication, we cannot overlook the necessity of accessibility regarding the documents we share. As GreatPixel, we have indeed adopted a new policy to emphasize our commitment to creating accessible documents.

What makes a document accessible?
Of course, we must refer to the World Content Accessibility Guidelines (WCAG).
Let's look at some basic principles that make our documents accessible, always referring to the WCAG for PDF.
1. Color Contrast and Readability
As with the web, it is important to use color contrast and element sizes that ensure readability. Here are some of our preferred tools:
– Contrastchecker
– Accessible Palette
2. Always Use Alternative Text for Images
Just like with websites, it is essential to provide users with descriptive text that explains the images in the document so that everyone can understand the content.
3. Ensure a Good Reading Order
To access the document, screen readers use tags to understand its structure. Therefore, it is necessary to:
- Structure the layout with headings and paragraphs
To identify the textual content with tags, it is necessary to structure the document with headings and paragraphs. Therefore, it is advisable to use a template that distinguishes them within the content. - Create a Logical Reading Order
If multiple elements need to be included on the same page, arrange them in a way that provides a sensible reading order. - Use Few Elements
Avoid creating too much confusion within the document. Keep it simple! Users will appreciate the effort to present information in a concise and organized manner.
4. Create Bookmarks for Navigation
If the tool used does not generate them automatically, insert bookmarks within the PDF to make the document's structure accessible. This can be done using any PDF editing application. When exporting the document to PDF format, ensure that it contains tags.
Tags identify the elements (text, graphics, images) that will then be read by the screen reader and are generated automatically by the program.
Using tools like Adobe Acrobat, you can verify that the creation of tags has occurred correctly.
Emanuele Giovanili, Alessia Damone
Artificial Intelligence and New Approaches in Communication: The Levi's Case Study

In recent decades, Artificial Intelligence has redefined the way we live, work, and communicate. Its origins date back to World War II; in fact, it was from 1940 that the first concrete project began to develop. Artificial Intelligence is a discipline focused on developing hardware and software systems capable of simulating human thought processes and behavior.
“AI is a machine that can learn, reason, and make decisions autonomously, just like a human does.”
Despite its apparent revolutionary nature, the concept of the Metaverse is not entirely new. Originally coined in the cyberpunk novel Snow Crash by Neal Stephenson, it was later adopted by Mark Zuckerberg, founder of Facebook. The term is used in games such as Fortnite, The Sandbox, Roblox, and Decentraland.
In 2021, Zuckerberg announced the rebranding of Meta and the project for a platform aimed at revolutionizing human interaction, transitioning from a Social Media Company to a Metaverse Company.
Between 1940 and 1973, a particular historical and scientific convergence led to a period of relentless and rapid research that significantly contributed to progress.
- Initially, the functioning of the neural network that makes up the brain's internal structure was discovered;
- Norbert Wiener developed cybernetic theories of control and stability of electrical networks, followed by Alan Turing with his theory of computation.
- Finally, Claude Shannon developed his information theory.
This raised a common question: is it possible to build an electronic brain?
This very drive gave rise to the idea of conceiving a thinking machine, an automaton capable of performing human actions, learning, and even speaking. A decisive role in this journey was played by the Dartmouth Summer Research Project in 1956: an event marking the birth of Artificial Intelligence as a true scientific discipline. The exponential growth of AI culminated in the 1990s, when the machine Deep Blue publicly defeated world chess champion Garry Kasparov, challenging human abilities and demonstrating, for the first time, a machine that could reason like a human. Since then, AI has increasingly permeated our daily lives, <b

Define Artificial Intelligence
AI has gradually expanded its presence across various sectors, from medicine to finance to communication, often making human life easier and safer. Known also as General AI, it refers to all cognitive functions performed by a machine that are hardly distinguishable from those of a human. This entails the ability to learn, reason, and make decisions autonomously. These abilities open up new frontiers in practical applications but also spark an ongoing ethical debate as technology advances.
"AI is progressively changing the relationship between people and technology, and in the near future, its further developments may increasingly enhance human ingenuity through greater precision and speed."
There are high expectations for the future advancements of these increasingly present technologies. This growth will necessitate regulation, particularly to ensure AI's capacity for objectivity and lack of bias.
The ethical dimension of AI
A coalition of scientists, entrepreneurs, and mathematicians has highlighted the potential risks of indiscriminate AI use. A significant first step was taken in 2023 by the European Parliament with the AI Act, a document aimed at regulating AI usage to ensure safety, privacy, and prevent discriminatory applications. The Act thus governs the use of AI, which, if misused, can be detrimental to social and political balance.
AI in communication and advertising
The application of AI in communication has been revolutionary, with tools like ChatGPT and Dall-E 3 making it possible to generate text, poetry, drawings, and images. Recently, AI integration with CGI has created a new communication paradigm, producing surreal yet familiar visual content. This PAV (Paradox – Action – Vivid) approach captivates viewers, creating a unique brand image in their minds. CGI campaigns, unlike traditional productions, offer a cost-effective and sustainable solution by minimizing logistical and environmental costs, allowing brands to focus on advanced creative strategies.

The Levi's case
Developer and technical writer Aaron Brancotti, co-author of Metaverse Architect, emphasizes the role of humanity as the Metaverse's primary resource. According to Brancotti, integrating sociological and anthropological dynamics within the Metaverse’s technological realm is essential. Building a Metaverse is not like making a film but is more akin to creating an event schedule. The Metaverse represents a fusion of technology and humanity, embodying a paradigm of human-technology interaction known as interaction design.
Big Players: Successful Brand Experiences
Big Players: Successful Brand Experiences
The iconic brand Levi's has developed a project that connects Artificial Intelligence with fashion. Levi's choice to use AI reflects its innovative approach, as in the past year, it created virtual models of jeans using this technology.
To enhance their customers' shopping experience, Levi's introduced virtual models to simplify the search for the perfect jeans. Collaborating with Lalaland, a Dutch AI-driven communication company founded in 2019, Levi's has made online shopping more distinctive and realistic. Each garment can now be viewed on a virtual model, tailored to account for differences in body shape, size, and age among potential customers. These virtual models are designed to complement, not replace, human models.
Given Levi's inclination toward Artificial Intelligence, why not develop an entire communication campaign generated with AI?
Imagine the next advertising campaign

We envisioned additional communication ideas to further explore Generative AI applications for the brand. In Levi’s initial brand analysis and communication strategy development phases, ChatGPT was used. The chatbot provided a solid foundation for the creative phase, where images were generated using Dall-E 3 and Microsoft Bing.
We envision the communication campaign launching in autumn for about a month. It would be spread across various channels, from traditional billboards to interactive formats, embracing guerrilla marketing in select locations in Milan through Pop-up stores and Levi's brand shops. During the campaign, stores and Pop-ups would distribute themed items, like jeans-shaped keychains, pins, and magnets. Additionally, CGI images would showcase iconic city locations, such as Piazza Duomo, to enhance brand presence throughout the campaign.


The campaign would conclude with a brand fashion show, for which an invitation would be sent to influencers, generating user-generated content through unboxing. The fashion show would be live-streamed on social media to engage a wider audience. The location, an abandoned factory, would highlight the original use of the 501 jeans, which were initially worn by workers.
Generative AI and Prompt Engineering: Key considerations around failed attempts
During the visual development of the project, efforts were made to engage readers by generating explanatory images. To achieve this, detailed prompts were provided to Dall-E 2, followed by successive corrections through additional prompts. Initially, there were difficulties in generating images with this tool, with unsatisfactory results and outdated representations, sometimes with text errors. In creating images for billboards, it was necessary to guide the AI step by step through its process. It was essential to suggest a more human approach in the models. Initial attempts raised doubts about the accuracy and articulation of the prompts, leading to further generation requests through ChatGPT, though results remained imperfect and unconvincing. Exploring various image generation tools, a solution was found through image generation via Microsoft Bing, which produced acceptable results right from the start, thanks to technology that integrates Dall-E 3 with ChatGPT 4. The surprise was in the quality of the images and the variety of artistic styles offered. Additionally, the generated images immediately aligned with the inserted prompt without the need for excessive detail. This emphasized the necessity of guiding artificial intelligence, highlighting that, despite advances over time, humans will always set the pace of work.
To mark the launch of the new Heineken Silver beer, the brand created the first virtual brewery in the Metaverse on Decentraland. In this space, designed in collaboration with Spanish street artist J. Demsky, visitors can learn about the beer’s qualities, speak with experts, and explore pairings.




Implications for the Fashion and Advertising Industries
The use of AI in the advertising and fashion industries offers exciting prospects. The ability to generate creative content efficiently could reduce advertising costs and increase focus on research and sustainability. However, crucial questions arise about social and employment impacts, as some job roles may become obsolete due to automation. While job loss is a concern, many new roles will likely emerge. According to Goldman Sachs, “AI could replace 25% of old jobs worldwide”, but new positions in tech, healthcare, automotive, and other sectors will compensate. Additionally, human presence will always be necessary for managing AI machines.

The future of collaboration between humans and Artificial Intelligence
The experience and experimentation with the Levi’s brand have highlighted the importance of human guidance in using AI. Despite significant advancements, AI still requires human oversight to achieve quality results. As Artificial Intelligence continues to evolve, it is essential to adopt a careful and mindful approach to maximize benefits while considering ethical and social implications.
Artificial Intelligence remains a powerful and transformative resource in our society, with cross-functional applications. The collaboration between AI and brands (especially iconic ones like Levi's) marks the beginning of a new era in advertising and fashion, where technological innovation and human creativity blend to shape the future.
Sources
Contucci P.,2023, Rivoluzione Intelligenza artificiale. Sfide, rischi e opportunità, Dedalo.
Henry A. Kissinger, Eric Schmidt, Daniel Huttenlocher, 2023, L’Era dell’Intelligenza Artificiale, Mondadori.
Sassoon J., 2019, Storytelling e Intelligenza Artificiale, FrancoAngeli.
Alba Chiara Zito
Learnability vs usability: cosa abbiamo capito su anziani e coronavirus
Il coronavirus ha spostato tutti gli aspetti della nostra vita dal mondo reale a quello virtuale. L’aumento delle connessioni da casa (secondo gli ultimi dati forniti da Fastweb all’Agcom, i momenti di picco si sono innalzati del 40%), la tipologia di app che ora sono più scaricate sugli store mobile, lo spostamento anche dei meeting degli A.A. su Zoom e la recente “rivoluzione” della ricetta medica tramite SMS ne sono un chiaro segnale.
In questa situazione c’è da chiedersi: la tecnologia è pronta per essere usata da tutti gli utenti?
La risposta è no. Nonostante i molteplici studi fatti, sono ancora costretto a dover andare da Milano a Piacenza per aiutare mia zia che, non per colpa sua, non riesce ad usare la intranet aziendale (di cui non posso fare nomi, ma è una delle intranet più usate in Italia) perché chi l’ha progettata pretendeva che utenti dell’età media di 60 anni capissero, ad esempio, che potevano trovare i propri cedolini sotto la voce di menù “myspace” (contrapposta a “mywork”). Con il coronavirus, ho dovuto farle installare TeamViewer tramite una videochat su whatsapp, per poter continuare ad assisterla senza problemi.
Ma torniamo all’argomento principale: come facciamo a progettare un’interfaccia che non richieda l’assistenza costante di un’altra persona?
Per rispondere a questa domanda, ho deciso di fare un po’ di ricerche.
Cosa genera maggiore difficoltà?
Uno studio recentemente pubblicato da alcuni ricercatori delle università australiane di Queensland, Canberra e della Sunshine Coast ("The effects of redundancy in user-interface design on older users” Reddy, Blackler, Popovic, Thompson & Mahar, 2019) ha cercato di capire se le interfacce “ridondanti” (ovvero, che comprendessero sia icone che testo) fossero più facili da navigare da parte degli anziani rispetto a quelle con solo testo o con solo icone. La risposta è stata molto interessante: le interfacce ridondanti e quelle con solo icone risultano più difficili da elaborare per gli utenti più anziani, rispetto alle interfacce in cui è presente solo testo.
Perché le icone non funzionano con gli anziani?
Secondo gli studi, il nostro cervello sviluppa prima la capacità di elaborare le immagini rispetto a quella di elaborare la parola. Tuttavia, lo sviluppo di questa capacità si arresta prima e decade più rapidamente, rispetto all’elaborazione del testo. Ciò significa che gli utenti più anziani compiono un maggiore sforzo cognitivo per elaborare una immagine e associarla al suo significato e azione.
Pensiamo al tasto “start” di Windows 10.

Al di là della sua posizione (in basso a sinistra, rispettando l’amatissima e abusatissima legge di Fitts), questa icona di menu principale risulta poco comprensibile per un anziano: i quattro rettangoli, infatti, stanno a significare una finestra, con diretto riferimento all'inglese "Windows", da cui poter accedere a tutti i programmi. Chi non conosce l’inglese e non è avvezzo ad una metafora simile (una repository con tutti i tool) può avere più difficoltà a fare questo tipo di associazione. Inaspettatamente, lo studio ha anche dimostrato come la curva di apprendimento (autonomo) di una interfaccia ridondante fosse più alta rispetto a quella di una interfaccia solo testo. Il fattore ancora più interessante è stato che sulle interfacce che presentavano solo testo, le persone più anziane hanno avuto la medesima abilità delle persone più giovani, riuscendo a compiere le task senza chiedere un aiuto, benché ci abbiano messo leggermente più tempo per farlo (i giovani hanno performato meglio in assoluto nelle interfacce ridondanti).
La soluzione è eliminare tutte le immagini e icone?
Non proprio. Nonostante l’alto sforzo iniziale, le immagini hanno la caratteristica di rimanere più a lungo nella memoria a lungo termine a differenza delle informazioni testuali. Attraverso la ripetizione delle azioni, una volta imparato il significato di un’icona, una persona anziana avrà molta più facilità a ricordare cosa quell’icona faccia, anche senza il supporto testuale. Inoltre, icone e immagini aiutano a rendere più facilmente scansionabile una interfaccia, evidenziando le zone più importanti: una interfaccia solamente testuale, per quanto ben gerarchizzata, rischia di aumentare il carico cognitivo dell'utente per la quantità di informazioni mostrate.
Non progettate interfacce intuitive
Torniamo alla domanda iniziale: la tecnologia è pronta per essere usata da tutti gli utenti? No.
Analizziamo Skype, Zoom o altri tool che oggi vengono usati per la situazione Coronavirus.
Molte delle funzionalità, anche di base, possono risultare complesse ai neofiti della tecnologia e agli anziani. Fino a quando si tratta, ad esempio, di chiudere una chiamata, la maggior parte degli utenti riesce a capire qual è il bottone necessario, spesso evidenziato di rosso (anche se l’assenza di label rende il bottone meno comprensibile ad alcuni). Nel momento in cui è necessario fare una operazione un po’ più complessa, come condividere lo schermo, molti si trovano in difficoltà. Skype usa un'icona poco chiara, Google Meet usa un linguaggio sia visivo che testuale, difficile da capire immediatamente (“Present now”), anche da utenti un po’ più esperti.


È vero, se è l’unico strumento per ottenere un risultato, le persone si impegnano per capire come funziona un software o un’app. Tuttavia, la tecnologia che non si adatta alle persone aumenta il rischio di errori, talvolta anche gravi (ricordate il caso del messaggio inviato per errore alle Hawaii?). Per quanto molti di questi programmi vengano usati spesso, non possono essere definiti intuitivi. Almeno non per tutti.
Un'interfaccia “intuitiva” è tale quando tutti gli utenti riescono ad eseguire tutte le task (o la maggior parte di esse) senza necessità di aiuti esterni. Alcune definizioni sottolineano anche l’assenza del “trial and error” nella definizione di “intuitiva”: effettuare tutte le task senza fare dei tentativi. Vorrebbe dire che tutti gli utenti partono da background simili, per poter arrivare alle medesime conclusioni.
Ma tutto questo, come ha dimostrato la ricerca, non è realistico. Non è possibile progettare interfacce davvero intuitive. È necessario trovare un punto di vista diverso.
Progettate esperienze di apprendimento
Dobbiamo cambiare approccio progettuale. Perchè la tecnologia si adatti davvero ad ogni tipo di utente, non possiamo più progettare solo flussi ed interfacce. Dobbiamo definire dei veri e propri percorsi di apprendimento dell’interfaccia, trasformando il concetto di intuitive interfaces in learnable interfaces: interfacce che aiutano gli utenti nel loro processo di apprendimento, adattandosi ai tempi e alle conoscenze di ciascuno.
Nella pratica questo può essere fatto sia arbitrariamente, attraverso la costante analisi dei dati (poco consigliato), oppure attraverso strumenti di machine learning (decisamente più consigliato). Non è fantascienza: la tecnologia odierna permette già questo tipo di analisi. Ad esempio, Facebook circa un anno e mezzo fa ha introdotto la tab bar dinamica sulla propria app, personalizzata in base agli usi degli utenti. Ma potremmo fare tanti altri esempi: motori di raccomandazione, personalizzazione delle interfacce in base al luogo in cui un utente si trova…
Il limite sta soltanto nella nostra voglia di accogliere questa vecchia/nuova sfida: adattare le macchine alle persone e non le persone alle macchine.