Personale VB

Anteprima di AdobeStock 1140929831

Presentato da Arm

L’intelligenza artificiale non è più confinata al cloud o ai data center. Sempre più spesso, opera direttamente dove i dati vengono creati: nei dispositivi, nei sensori e nelle reti edge. Questo passaggio all’intelligenza integrata nei dispositivi è guidato dalle preoccupazioni relative a latenza, privacy e costi che le aziende si trovano ad affrontare nel proseguire i loro investimenti nell’intelligenza artificiale.

Per i team dirigenziali, l’opportunità è chiara, afferma Chris Bergey, SVP e GM di Client Business di Arm: investire in piattaforme AI-first che integrano l’utilizzo del cloud, offrono reattività in tempo reale e proteggono i dati sensibili.

“Con l’esplosione dei dispositivi connessi e l’ascesa dell’IoT, l’intelligenza artificiale edge offre alle organizzazioni un’importante opportunità di acquisire un vantaggio competitivo attraverso un’intelligenza artificiale più rapida ed efficiente”, spiega Bergey. “Chi si muove per primo non si limita a migliorare l’efficienza, ma ridefinisce le aspettative dei clienti. L’intelligenza artificiale sta diventando un elemento di differenziazione in termini di fiducia, reattività e innovazione. Prima un’azienda rende l’intelligenza artificiale centrale nei propri flussi di lavoro, più velocemente accrescerà tale vantaggio”.

Casi d’uso: implementazione dell’intelligenza artificiale dove risiedono i dati

Le aziende stanno scoprendo che l’intelligenza artificiale edge non rappresenta solo un miglioramento delle prestazioni, ma un nuovo modello operativo. L’elaborazione locale significa minore dipendenza dal cloud e processi decisionali più rapidi e sicuri, in tempo reale.

Ad esempio, un reparto produttivo può analizzare istantaneamente i dati delle apparecchiature per prevenire tempi di fermo, mentre un ospedale può eseguire modelli diagnostici in loco in modo sicuro. I rivenditori al dettaglio stanno implementando analisi in-store utilizzando sistemi di visione artificiale, mentre le aziende di logistica utilizzano l’intelligenza artificiale sui dispositivi per ottimizzare le operazioni della flotta.

Invece di inviare enormi volumi di dati al cloud, le organizzazioni possono analizzare e agire sulle informazioni non appena emergono. Il risultato è un’architettura di intelligenza artificiale più reattiva, rispettosa della privacy e conveniente.

Le aspettative del consumatore: immediatezza e fiducia

Collaborando con il team Taobao di Alibaba, la più grande piattaforma di e-commerce cinese, Arm (Nasdaq:Arm) ha abilitato raccomandazioni di prodotto direttamente sul dispositivo, che si aggiornano istantaneamente senza dipendere dal cloud. Questo ha aiutato gli acquirenti online a trovare ciò di cui avevano bisogno più velocemente, mantenendo al contempo riservati i dati di navigazione.

Un altro esempio proviene dalla tecnologia di consumo: gli occhiali intelligenti Ray-Ban di Meta, che combinano cloud e intelligenza artificiale sul dispositivo. Gli occhiali gestiscono i comandi rapidi localmente per risposte più rapide, mentre le attività più complesse come la traduzione e il riconoscimento visivo vengono elaborate nel cloud.

AdobeStock 1001953498 Solo per uso editoriale

“Ogni importante cambiamento tecnologico ha creato nuovi modi di interagire e monetizzare”, afferma Bergey. “Con la crescita delle capacità dell’intelligenza artificiale e delle aspettative degli utenti, sarà necessario che sempre più intelligenza si avvicini ai confini per offrire quel tipo di immediatezza e fiducia che le persone ora si aspettano”.

Questo cambiamento sta avvenendo anche con gli strumenti che le persone utilizzano quotidianamente. Assistenti come Microsoft Copilot e Google Gemini stanno integrando l’intelligenza cloud e quella on-device per avvicinare l’intelligenza artificiale generativa all’utente, offrendo esperienze più rapide, sicure e contestualizzate. Lo stesso principio si applica a tutti i settori: più intelligenza si sposta in modo sicuro ed efficiente verso l’edge, più reattive, riservate e preziose diventano le operazioni.

Costruire in modo più intelligente per la scalabilità

L’esplosione dell’intelligenza artificiale nell’edge richiede non solo chip più intelligenti, ma anche infrastrutture più intelligenti. Allineando la potenza di calcolo alle esigenze del carico di lavoro, le aziende possono ridurre il consumo energetico mantenendo prestazioni elevate. Questo equilibrio tra sostenibilità e scalabilità sta rapidamente diventando un fattore di differenziazione competitiva.

“Le esigenze di elaborazione, sia nel cloud che on-premise, continueranno a crescere rapidamente. La domanda diventa: come massimizzare il valore di tale elaborazione?”, ha affermato. “È possibile farlo solo investendo in piattaforme di elaborazione e software che si adattino alle proprie ambizioni di intelligenza artificiale. La vera misura del progresso è la creazione di valore aziendale, non semplici parametri di efficienza.”

La fondazione intelligente

La rapida evoluzione dei modelli di intelligenza artificiale, in particolare quelli che supportano l’inferenza edge, le applicazioni multimodali e le risposte a bassa latenza, richiede non solo algoritmi più intelligenti, ma anche una base hardware altamente performante ed efficiente dal punto di vista energetico. Con la crescente diversificazione e distribuzione dei carichi di lavoro, le architetture legacy progettate per i carichi di lavoro tradizionali non sono più adeguate.

Il ruolo delle CPU si sta evolvendo e ora sono al centro di sistemi sempre più eterogenei che offrono esperienze di intelligenza artificiale avanzate sui dispositivi. Grazie alla loro flessibilità, efficienza e al supporto software maturo, le CPU moderne possono gestire qualsiasi cosa, dal classico apprendimento automatico ai complessi carichi di lavoro di intelligenza artificiale generativa. Se abbinate ad acceleratori come NPU o GPU, coordinano in modo intelligente l’elaborazione in tutto il sistema, garantendo che il carico di lavoro corretto venga eseguito sul motore giusto per le massime prestazioni ed efficienza. La CPU continua a essere la base che consente un’intelligenza artificiale scalabile ed efficiente ovunque.

Tecnologie come Scalable Matrix Extension 2 (SME2) di Arm offrono un’accelerazione avanzata della matrice alle CPU Armv9. Nel frattempo, Arm KleidiAI, il suo livello software intelligente, è ampiamente integrato nei principali framework per aumentare automaticamente le prestazioni di un’ampia gamma di carichi di lavoro di intelligenza artificiale, dai modelli linguistici al riconoscimento vocale alla visione artificiale, in esecuzione su dispositivi edge basati su Arm, senza che gli sviluppatori debbano riscrivere il codice.

“Queste tecnologie garantiscono che i framework di intelligenza artificiale possano sfruttare appieno le prestazioni dei sistemi basati su ARM senza ulteriori sforzi da parte degli sviluppatori”, afferma. “È così che rendiamo l’intelligenza artificiale scalabile e sostenibile: integrando l’intelligenza nelle fondamenta del calcolo moderno, in modo che l’innovazione avvenga alla velocità del software, non dei cicli hardware”.

Questa democratizzazione della potenza di calcolo è anche ciò che faciliterà la prossima ondata di esperienze intelligenti e in tempo reale in tutta l’azienda, non solo nei prodotti di punta, ma in interi portafogli di dispositivi.

L’evoluzione dell’intelligenza artificiale edge

Con l’evoluzione dell’intelligenza artificiale dai progetti pilota isolati all’implementazione su larga scala, le aziende che avranno successo saranno quelle in grado di connettere l’intelligenza a ogni livello dell’infrastruttura. I sistemi di intelligenza artificiale agentica dipenderanno da questa integrazione perfetta, consentendo processi autonomi in grado di ragionare, coordinare e generare valore all’istante.

“Lo schema è familiare: come in ogni ondata dirompente, le aziende consolidate che si muovono lentamente rischiano di essere superate dai nuovi entranti”, afferma.

“Le aziende che prospereranno saranno quelle che si sveglieranno ogni mattina chiedendosi come rendere la propria organizzazione AI-first. Come con l’ascesa di Internet e del cloud computing, coloro che si impegneranno e diventeranno veramente abilitati all’IA plasmeranno il prossimo decennio”.

error: Content is protected !!