Il MIR di Rimini continua il suo trend positivo dopo la "riapertura" post-pandemia: con un +30% di presenze rispetto allo scorso anno, +15% di espositori internazionali e una superficie sempre più grande (40.000 metri quadrati), l'edizione 2025 è stata un successo per gli organizzatori. Ma anche per i visitatori, che hanno avuto l'opportunità di immergersi letteralmente nelle tecnologie per il mondo dello spettacolo, degli eventi, delle esperienze interattive, business communication e broadcast. Tra i visitatori c'eravamo pure noi di DDay.it, che siamo tornati al MIR per toccare con mano le soluzioni che consentono di rendere concerti ed eventi spettacoli sempre più coinvolgenti ed immersivi.
Organizzata da Italian Exhibition Group, MIR è una manifestazione del tutto particolare, perché l'area espositiva non comprende solo i classici stand delle aziende, dove è possibile incontrare professionisti e responsabili commerciali per conoscere e approfondire prodotti e soluzioni, ma anche padiglioni in cui sono allestiti veri e propri palchi dove le tecnologie presentate vengono mostrate all'opera in spettacoli dal vivo in piena regola, in cui vengono integrate tante soluzioni all'avanguardia. Per l'edizione 2025 è stata anche inaugurata una nuova sezione all'aperto, denominata Sound Power, dove era possibile ascoltare in comparativa sistemi di speaker per concerti ed eventi, con i prodotti dei migliori marchi del settore.
Ampio spazio anche a workshop, conferenze e alla terza edizione del MIR CLUB, un evento nell'evento dedicato al mondo dei DJ e del clubbing, con decine di postazioni per i DJ, che ha visto la partecipazione di nomi come Albertino, Big Fish, Andro, Roberto Intrallazzi, Albert Marzinotto, Giacomo Maiolini, Sergio Cerruti, Dj Skizo, Dj Aladyn e Master Freez.

Dal canto nostro abbiamo selezionato alcune delle tecnologie che ci hanno colpito maggiormente, dalla continua evoluzione dei LED Wall, i giganteschi schermi digitali che diventano sempre più performanti e versatili, alle soluzioni che rendono sempre più interattivi gli spettacoli, a come anche nel mondo degli eventi dal vivo si fa sempre più strada il concetto di audio a oggetti e immersivo.
LED Wall sempre più definiti grazie alla tecnologia COB e ancora più versatili
Tra i padiglioni del MIR 2025 erano ovunque: che fossero il focus del business dell'espositore o semplice elemento dello stand, passeggiando per la fiera era impossibile non essere circondati da LED wall, tecnologia che migliora sempre più, portando a schermo sempre più definiti, con passi (la distanza tra un pixel e l'altro) ormai che arrivano sotto il millimetro a prezzi più accessibili.

Ciò è reso possibile dal consolidarsi della tecnologia CoB o Chip on Board, un'architettura che si pone come ponte tra i LED wall tradizionali SMD e i MicroLED. Nei LED wall classici, le mattonelle sono composte da schede elettroniche su cui vengono saldati dei dispositivi LED già integrati nel loro packaging.

Con l'architettura Chip on Board, i chip LED vengono invece saldati direttamente sul circuito stampato (da cui il nome), che viene poi rivestito su tutta la superficie da una resina specifica al fine di proteggere i LED dagli agenti esterni.

Eliminando il packaging individuale di ciascun chip LED, questa architettura, già ampiamente diffusa nel campo dell'illuminazione, applicata ai LED wall ha permesso di ridurre il passo, migliorare l'efficienza e semplificare la struttura delle singole mattonelle. Poiché poi l'intera mattonella è rivestita dallo strato di resina, la superficie del LED wall risulta liscia e molto simile a quella di un normale display. Pur con i suoi vantaggi, la tecnologia CoB presenta anche alcune controindicazioni: nel caso di un guasto di un singolo chip LED occorre cambiare l'intero modulo, e non è possibile ripararlo come accade per i normali LED SMD.

Tra le soluzioni che abbiamo visto al MIR, anche un'interessante LED trasparente laminato direttamente su vetro. Lo ha mostrato l'italiana VISILUX: a differenza dei normali LED wall "trasparenti" che non sono altro che moduli installati su griglie, questa soluzione utilizza LED montati su una sorta di tappetino, per un passo tra i 4 e gli 8 mm a seconda dei modelli, disponibile in strisce da 24 mm di larghezza, che possono essere applicate a vetrine di ogni misura.

Un apposito controller si installa alla base per alimentare e fornire il segnale allo schermo così creato. Oltre che sulle vetrine, questa soluzione può essere utilizzata anche per creare dei veri e propri teli digitali, permettendo di trasformare in schermi grandi superfici semplicemente srotolando un telone di LED, senza la necessità di dover montare uno schermo rigido tradizionale.

Interessante anche la soluzione LED wall con curvatura variabile di ROE Creative Display, con mattonelle con superficie flessibile e un cabinet che consente di applicare una curvatura di fino a +/-15° per costruire LED wall veramente curvi. Fino a poco tempo fa, la curvatura veniva ottenuta affiancando moduli comunque piani ad angolazioni differenti.

Sullo stesso LED wall veniva mostrata anche la modalità Ghost Frame, che in ambito di virtual production consente di riprendere un soggetto simultaneamente su due sfondi diversi, giocando sulla frequenza di visualizzazione del LED wall e di ripresa della videocamera, con evidenti risparmi nella produzione di video.
Alla guida di un Boeing 737 con FCS
Presente al MIR anche FSC, Flight Simulator Center, divisione di Pofessional Show spa specializzata nella produzione di sistemi di simulazione aeronautici professionali, che a Rimini ha portato una spettacolare replica del cockpit di un Boeing 737-800.

L'installazione era completata da un videowall composto da cinque monitor 4K che copriva l'intero campo visivo del pilota. La demo permetteva ai visitatori di provare l'ebrezza di pilotare un aereo di linea con l'aiuto di un addestratore professionista, decollando e atterrando dall'aeroporto di Venezia. Dentro il cockpit era possibile trovare la stessa strumentazione e i controlli dell'aereo reale, tutti mappati sul software di simulazione.

Si tratta di una soluzione per corsi di addestramento professionale, e anche se la demo a cui abbiamo partecipato è avvenuta per lo più utilizzando il pilota automatico, ci ha permesso di apprezzare la fedeltà della simulazione, ma soprattutto la complessità di un moderno aereo di linea!
Con l'audio a oggetti, oltre il 97% del pubblico può ascoltare un concerto al meglio
Tra i workshop organizzati quest'anno al MIR, uno dei più interessanti era quello dedicato alla tecnologia L-ISA di L-Acoustics, un sistema di audio mixing ad oggetti che sta rivoluzionando la riproduzione del suono in studio ma soprattutto nei concerti.

L-ISA include un processore audio, con algoritmi di spazializzazione del suono, che consente di mixare le sorgenti con una logica a oggetti superando il classico concetto di audio stereo. Applicato al mondo della musica live, significa sfruttare in modo nuovo l'impianto audio non solo per aggiungere "canali" in modo da avvolgere completamente lo spettatore, ma soprattutto facendolo funzionare meglio per offrire una migliore qualità del suono. Se un normale impianto stereo offre uno sweet spot che consente solo ad un 27% del pubblico di godere di un'esperienza di ascolto ottimale, L-ISA consente di portare questa percentuale fino al 97%, il tutto semplicemente aggiungendo qualche speaker in più rispetto ad un impianto tradizionale.

Con L-ISA l'audio engineer può posizionare i diversi strumenti liberamente all'interno di un soundstage a 360 gradi anziché sui classici canali destro e sinistro, permettendo di separare spazialmente suoni che altrimenti si disturberebbero a vicenda, senza dover ricorrere a complesse tecniche di elaborazione che porterebbero inevitabilmente a compromessi. Ogni strumento sul palco diventa un oggetto con specifiche proprietà (pan, width, distance, elevation e aux send), che consentono di posizionarlo con precisione nello spazio. Con L-ISA l'impianto lavora meglio e l'ascoltatore gode di un suono più preciso e realistico indipendentemente da dove si trovi nella location dell'evento.


Il mixing in audio spaziale si integra poi con le tecnologie di tracking che consentono di seguire in tempo reale il movimento dei performer sul palco. Al MIR 2025 ne abbiamo visto due in azione, ZacTrack, distribuita in Italia da RM Multimedia, e NaoStage, distribuita invece da AudioSales. Entrambe consentono di riconoscere e tracciare in tempo reale gli artisti sul palco e di definire delle aree di interazione che permettono di scatenare delle azioni. Spostandosi sul palco, l'artista può essere seguito automaticamente dalle luci, dalle telecamere, ma può anche interagire con animazioni sui LED wall, mentre il suono della sua voce o del suo strumento si muove con lui nello spazio.

ZacTrack sfrutta dei tracker che lavorano ad alta frequenza e comunicano con delle ancore poste sul perimetro del palcoscenico. NaoStage è invece una soluzione basata su computer vision, con un barra che monta cinque telecamere, capaci di lavorare anche in presenza di macchine del fumo ed effetti di illuminazione, e non ha bisogno di tracker.
L'AI generativa fa capolino nelle installazioni multimediali
Tra i trend evidenziati al MIR anche l'ingresso dell'AI generativa nelle soluzioni di integrazione per le esperienza multimediali interattive. Presso lo stand di Adeo Group abbiamo visto una soluzione realizzata dall'agenzia Aelion Project di Bologna in collaborazione con IOVERSAL, che produce la suite per le produzioni multimediali in tempo reale Vertex.

Al MIR hanno mostrato un'installazione di videomapping che integrava generazione di immagini basata su intelligenza artificiale a partire da un database addestrato su diversi stili pittorici e dalle fotografie dei visitatori della fiera.

L'immagine del visitatore veniva fusa con l'immagine generata dall'AI, mantenendo una perfetta coerenza. Il sistema al momento richiede ancora diversi secondi per la generazione dell'immagine finale, ma Aelion sta già lavorando ad una soluzione capace di lavorare in realtime con il video ripreso da una telecamera (di cui ci è stato mostrato in anteprima un prototipo). L'aspetto più interessante era proprio quello dell'integrazione: l'esperienza veniva controllata da una semplice interfaccia su un touchscreen, mentre il multimedia server di IOVERSAL si occupava di coordinare tutti i diversi componenti, compresi la fusione delle immagini e il videomapping.










3 Commenti