Razer svela alla GDC 2026 il futuro del gaming potenziato dall’intelligenza artificiale

Razer AVA si trasforma in companion AI agentico capace di agire sulle intenzioni dell’utente, Razer QA Companion-AI introduce test basati sulla visione e agenti di gameplay a integrazione zero, e Razer Adaptive Immersive Experience porta un runtime multisensoriale adattivo.

SAN FRANCISCO – 10 marzo 2026 – Razer™, il leader globale nel lifestyle gaming, ha presentato il proprio showcase “Future of Play” al GDC Festival of Gaming’s News and Demo Stage, portando in primo piano un’infrastruttura di sviluppo unificata e basata sull’intelligenza artificiale, capace di integrare software, hardware e immersione multisensoriale.

Con un mercato globale dei videogiochi atteso a 206,5 miliardi di dollari entro il 2028 e una base di utenti che si avvicina ai quattro miliardi a livello mondiale, gli studi di sviluppo ricorrono sempre più all’intelligenza artificiale per accelerare i tempi di produzione senza sacrificare la qualità. La presentazione di Razer alla GDC 2026 si articola attorno a tre nuove soluzioni, concepite per preservare il controllo creativo nelle mani degli sviluppatori eliminando al contempo le inefficienze lungo l’intera pipeline di produzione: 

  • Razer AVA introduce nuove funzionalità agentiche che traducono le intenzioni dell’utente in flussi di lavoro multi-step orientati agli obiettivi, operando in modo trasversale su app, servizi e dispositivi.
  • Razer QA Companion-AI si arricchisce ora di un sistema di controllo qualità basato sulla visione e privo di integrazioni aggiuntive, con rilevamento automatico dei bug, riproduzione guidata degli step e generazione di casi di test tramite intelligenza artificiale.
  • Razer Adaptive Immersive Experience propone un runtime multisensoriale intelligente che unifica gli effetti creati dai designer con effetti tattili, illuminazione e audio adattivi generati in tempo reale.

“L’intelligenza artificiale dovrebbe amplificare la creatività umana, non sostituirla. È questa convinzione a guidare tutto ciò che stiamo realizzando in ambito hardware, software e servizi”, dichiara Quyen Quach, VP Software di Razer. “Stiamo sviluppando strumenti di intelligenza artificiale concreti e operativi, che garantiscono agli sviluppatori il pieno controllo e aiutano i team a passare più rapidamente dall’idea alla realizzazione, preservando al contempo quella componente artistica che rende i giochi indimenticabili. Dai companion agentici al controllo qualità privo di frizioni, fino all’immersione multisensoriale adattiva, il nostro obiettivo è chiaro: supportare gli studi nel costruire più velocemente, ampliare la copertura e offrire esperienze sempre più ricche e coinvolgenti”.

Nel loro insieme, questi tre pilastri testimoniano il più ampio impegno di Razer nella costruzione di un ecosistema di gioco integrato, in cui hardware, software e servizi convergono verso un’esperienza sempre più immersiva e appagante.

Razer AVA: dal copilota AI per il gaming al companion agentico da scrivania

Presentato per la prima volta come Project AVA nel 2025 e successivamente lanciato come assistente da scrivania dotato di ologramma 3D animato da 5,5 pollici al CES 2026, Razer AVA compie oggi un ulteriore passo evolutivo, affinando la propria capacità di interpretare gli obiettivi, pianificare le attività e operare in autonomia su app, servizi e dispositivi dell’utente.

Alla GDC 2026, AVA introduce un sistema agentico potenziato, capace di tradurre le intenzioni dell’utente in flussi di lavoro strutturati e articolati in più fasi, segnando il passaggio dalle semplici risposte in chat al completamento concreto delle attività. Un’evoluzione che proietta AVA oltre il ruolo di mera companion reattiva, affermandola come assistente AI quotidiana di riferimento per professionisti e giocatori. 

Le funzionalità principali includono:

  • Razer Inference Control Plane: il nuovo motore di orchestrazione instrada le richieste in modo intelligente tra modelli locali e cloud, garantendo minore latenza, continuità multi-step ottimizzata ed esecuzione efficiente anche al crescere della complessità delle attività.
  • Integrazione con app e servizi di terze parti: compatibile con servizi supportati, piattaforme di chat e applicazioni come Spotify, AVA è in grado di agire per conto dell’utente con risposte e interazioni in tempo reale.
  • Flussi di lavoro agentici: pianifica ed esegue in autonomia attività articolate in più fasi, traducendo l’intento dell’utente in risultati concreti attraverso strumenti interconnessi.
  • Coordinamento tra companion: abilita la comunicazione da agente ad agente, consentendo ai companion AVA di gestire attività end-to-end tra più utenti, dalla proposta di orari di riunione all’aggiornamento dei calendari e alla conferma degli impegni.

Occupandosi della configurazione, del coordinamento e delle incombenze ricorrenti, AVA alleggerisce il carico operativo quotidiano e si consolida come strumento concreto al servizio degli utenti, restituendo loro il tempo da dedicare a ciò che conta davvero.

Le iscrizioni alla beta di Razer AVA su Razer Cortex sono ora aperte, con inviti di accesso anticipato che saranno inviati a utenti selezionati a partire dal secondo trimestre del 2026. Per ulteriori informazioni e per registrarsi, visitare rzr.to/avabeta.

Razer QA Companion-AI: controllo qualità a integrazione zero per le pipeline di sviluppo moderne

Presentato per la prima volta al GDC 2025, Razer QA Companion-AI si rinnova oggi con aggiornamenti significativi che riducono ulteriormente le frizioni nel flusso di lavoro ed estendono la copertura dei test automatizzati nelle moderne pipeline di sviluppo. Grazie alle nuove funzionalità di test basate sulla visione e prive di integrazione, la soluzione si innesta direttamente nei flussi di lavoro QA esistenti senza richiedere SDK, plugin o modifiche al codice sorgente. 

Queste nuove funzionalità ottimizzano i processi di QA incrementando l’automazione, migliorando la completezza dei report e alleggerendo il carico manuale dei tester. Si fondano sulla capacità già consolidata di QA Companion-AI di analizzare filmati di gameplay, segnalare bug visivi e generare automaticamente report completi corredati di video, arricchendo ora ogni segnalazione con i relativi step di riproduzione. La soluzione è inoltre in grado di generare casi di test a partire da prompt o documenti di progettazione del gioco (GDD), mentre sono in fase di sviluppo agenti di gameplay basati sull’intelligenza artificiale per l’esecuzione di casi di test selezionati con restituzione dei risultati in esito positivo o negativo. Nel complesso, queste funzionalità consentono agli studi di velocizzare i processi di quality assurance senza rinunciare ad accuratezza, supervisione e intento creativo.

I principali miglioramenti includono:

  • Implementazione a integrazione zero: operativa fin da subito, senza necessità di SDK, plugin o modifiche al codice sorgente.
  • Generazione di casi di test tramite AI: produce casi di test funzionali, negativi e limite a partire da prompt del tester o input GDD opzionali, in pochi minuti e adattabili a diversi titoli.
  • Rilevamento dei bug basato sulla visione: acquisisce filmati di gameplay, identifica anomalie visive tra cui fisica, collisioni, rendering e animazione, e genera report di bug completi corredati di step di riproduzione e video.
  • Agenti di gameplay basati sull’IA: agenti autonomi e consapevoli del contesto di gioco che eseguono casi di test selezionati, si adattano alle modifiche di design e restituiscono riepiloghi di esito positivo o negativo senza scrittura di script.
  • Configurazione rapida: processo di onboarding semplificato con installazione una tantum dell’app bridge, senza dipendenze da software di terze parti.

Automatizzando l’esecuzione ripetitiva e la reportistica, QA Companion-AI amplia la copertura dei test, snellisce i cicli di quality assurance e libera i tester per concentrarsi su attività ad alto valore aggiunto, orientate all’esperienza del giocatore.

Per saperne di più rzr.to/qa.

Razer Adaptive Immersive Experience: un nuovo standard per l’immersione multisensoriale

Razer Adaptive Immersive Experience è un nuovo runtime multisensoriale che combina una libreria di effetti plug-and-play con effetti tattili e luci ambientali generati dinamicamente dal runtime stesso. La soluzione riduce i tempi di integrazione e ottimizzazione a soli tre giorni, offrendo agli sviluppatori un approccio più rapido e coerente per implementare esperienze multisensoriali di alta qualità, senza oneri produttivi aggiuntivi.

Parte integrante dell’ecosistema per sviluppatori WYVRN di Razer, Adaptive Immersive Experience introduce uno strato adattivo di immersione che opera in sinergia con gli effetti creati dai designer. Il runtime interpreta i segnali audio e video del gioco in tempo reale, fondendo una base ambientale contestualizzata con momenti elaborati ad hoc, per mantenere l’immersione equilibrata, reattiva e uniforme con l’evolversi del gameplay. Alimentato dallo stack multisensoriale di Razer — Razer Sensa™ HD Haptics, Razer Chroma™ RGB e THX® Spatial Audio+ — arricchisce l’esperienza senza mai sovrascrivere la visione creativa dello studio.

Adaptive Immersive Experience introduce inoltre Dynamic Haptics, che unifica gli effetti Sensa HD Haptics realizzati dagli sviluppatori con Audio-to-Haptics (A2H), un motore in tempo reale capace di convertire l’audio di gioco in feedback tattile. La combinazione dei due sistemi restituisce un panorama tattile più ricco e uniforme, tanto nei momenti di gioco appositamente progettati quanto nell’ambiente circostante.

Le funzionalità principali includono:

  • Effetti generati in tempo reale: il runtime genera automaticamente l’ambiente tattile adattivo e l’illuminazione, riducendo la necessità di scripting manuale e di gestione dei casi limite, preservando gli effetti definiti dagli sviluppatori.
  • Libreria di effetti plug-and-play: effetti tattili e Chroma pronti per la produzione, validati su titoli già commercializzati e pienamente compatibili con Unity e Unreal Engine.
  • Integrazione nativa con Wwise: connessione diretta di Sensa HD Haptics e THX Spatial Audio+ nei flussi di lavoro audio Wwise consolidati, per un’adozione fluida e immediata.

Adattando in modo intelligente illuminazione, feedback tattile e audio in tempo reale, Adaptive Immersive Experience mette a disposizione degli sviluppatori una soluzione più rapida e scalabile per garantire un’immersione multisensoriale uniforme su qualsiasi titolo, gettando al contempo le basi per esperienze sempre più elaborate ed espressive.

Razer Adaptive Immersive Experience sarà lanciata in più fasi a partire dal primo trimestre del 2026. Per maggiori informazioni, visitare rzr.to/adaptiveIUX.

Ultime News

Related articles