L’INTELLIGENZA ARTIFICIALE NELLE RETI WIRELESS IOT

L’Internet of Things (IoT) al giorno d’oggi stà diventando sempre più popolare grazie all’evoluzione delle reti Internet ad alta velocità e ai numerosi sensori avanzati che possono essere integrati in un microcontrollore.

Con l’aumento del numero di postazioni di lavoro e di sensori, alcuni dati potrebbero incontrare problemi di archiviazione, ritardi (latenza), limitazione dei canali e congestione nelle reti. Per evitare tutti questi problemi, sono stati proposti molti algoritmi negli ultimi anni, tra essi, l’Intelligenza Artificiale (IA) è ancora la migliore soluzione per il trattamento dei dati, la gestione e il controllo della congestione della rete. L’IoT), acclamato come fattore determinante della prossima rivoluzione industriale, richiederà una connettività onnipresente, mobilità dei servizi sensibile al contesto, ed estrema sicurezza attraverso l’infrastruttura di rete wireless in cui l’Intelligenza Artificiale giocherà un ruolo importante. Tuttavia, l’IA dovrà affrontare una serie di sfide nell’utilizzo di concetti, strumenti e algoritmi nelle reti wireless utilizzate dall’ IoT. In questo articolo saranno descritte le principali sfide nell’utilizzo dell’IA nell’infrastruttura di rete wireless per le comunicazioni IoT.

INTRODUZIONE

L’Internet of Things è un’estensione della connettività di rete fisica dei

dispositivi, come gli attuatori, sensori e dispositivi mobili, abil itati ad interagire e a comunicare tra di loro e che possono essere controllati o monitorati a distanza. L’IoT, riconosciuto come elemento evolutivo della prossima rivoluzione industriale, trasformerà il modo con cui interagire e utilizzare gli attuali sistemi fisici disponibili. Attualmente causa già importanti impatti nell’assistenza sanitaria, Smart Home, produzione, commercio, istruzione e molti altri settori chiave della vita quotidiana. Il mercato dell’IoT sta attraversando una fase incredibile di crescita e l’industria dell’IoT dovrebbe crescere molto di più nel prossimo decennio. Nelle applicazioni in cui è già utilizzato l’IoT, come i veicoli senza pilota (UAV), Smart Home, dispositivi elettromedicali, Realtà Aumentata (RA) e Realtà Virtuale (RV), le reti di comunicazione IoT devono evolversi per soddisfare i requisiti attuali e futuri richiesti. Le reti di comunicazione, mediante la fusione di diversi dispositivi IoT e di apposite applicazioni, devono anche supportare operazioni autonome per i servizi in continua evoluzione, l’incremento senza precedenti del traffico di rete e le minacce alla sicurezza sempre più complesse. Tutte queste sfide si aggiungono ulteriormente all’aumento della complessità delle operazioni di rete. L’Intelligenza Artificiale con le sue discipline, ovvero le macchine ad autoapprendimento (machine learning – ML), è il principale attore per la realizzazione di una rete funzionante in modo intelligente ed autonomo. Dall’avvento del rivoluzionario metodo di addestramento rapido basato sulle reti neurali, c’è stato un rinnovato interesse per le reti neurali ed altri metodi di autoapprendimento ML nelle reti di comunicazione. L’applicazione di ML nelle reti wireless è stato di immenso interesse e un gran numero di articoli di ricercatori del settore è stato pubblicato. Attualmente, l’intelligenza artificiale è sostenuta dalle tecnologie avanzate dei semiconduttori e all’avvento del Cloud e dell’elaborazione distribuita. Nonostante tutti questi progressi tecnologici, un certo numero di sfide restano ancora oggi aperte per riuscire a realizzare con successo soluzioni basate sull’Intelligenza Artificiale nelle reti wireless. Invece di considerare l’IA come una soluzione onnipotente, è necessario un approccio cauto e un confronto attento con lo stato di fatto che porti a soluzioni applicabili nelle future reti di comunicazione.

[boris]

L’IA NELL’INFRASTRUTTURA DI RETE WIRELESS

L’eterogeneità e complessità dell’IoT da un lato e big data dall’altro, vari concetti di elaborazione avanzata, archiviazione, link e larghezza di banda, sono alcuni limiti degli strumenti e degli algoritmi dell’IA. Pertanto, sono in corso enormi sforzi nel settore della ricerca in questa direzione. Inoltre, nuovi

concetti e discipline dell’IA in diversi sistemi di rete o servizi di rete, vengono proposti, discussi e valutati continuamente, essenzialmente quando verrà utilizzata l’IA nelle future reti wireless. L’utilizzo dell’IA per migliorare l’efficienza dei dispositivi e dei servizi IoT o per migliorare la funzionalità della rete utilizzata dall’IoT, comporta la necessità di requisiti di comunicazione aggiuntivi. Il sovraccarico del sistema di comunicazione causato dall’adozione dell’Intelligenza Artificiale può essere attribuito ai sistemi operativi di base dell’IA. Ad esempio, i sistemi ML ricavano informazioni utili da dati (su larga scala) che devono essere comunicati tra i dispositivi che eseguono algoritmi ML. Per spiegare gli extra costi di comunicazione, si consideri un dispositivo di apprendimento che utilizzi la larghezza di banda e lo spettro di comunicazione per l’osservazione dell’ambiente circostante comunicando i risultati dell’interprete e quindi condividendo i dati con altri dispositivi IoT nello stesso ambiente. Quindi, i costi di comunicazione degli algoritmi di apprendimento dell’ML possono essere determinati genericamente dal numero di cicli di comunicazione necessari per osservare o apprendere l’ambiente (algoritmo ML di convergenza), dal numero di canali utilizzati per la comunicazione, e dalla larghezza di banda o spettro di frequenze utilizzato per canale in un ciclo di comunicazione. Nell’IoT, l’enorme quantità di dati diversi generati dall’enorme numero di dispositivi IoT connessi richiederà risorse di memoria e di elaborazione molto elevate. Quindi, la capacità limitata dei dispositivi IoT forzerà l’elaborazione ML verso altre risorse disponibili, la maggior parte versoi nodi edge, principalmente quelli prossimi ai dispositivi IoT per soddisfare i requisiti di latenza. Tuttavia, tutto ciò è molto impegnativo nella maggior parte dei casi d’uso dei big data generati dall’IoT per adattare ed elaborare l’intero set di dati nell’edge. Pertanto, molto probabilmente saranno utilizzati due approcci, in primo luogo l’elaborazione distribuita coordinata in più nodi edge e poi l’elaborazione centralizzata in un pool di sistemi di elaborazione e archiviazione più grandi come quelli dei sistemi Cloud centralizzati Figura 1). In entrambi i casi, il sovraccarico di comunicazione sarà molto più alto del previsto.

 

 

Figura 1 – Cloud centralizzato delle reti wireless (Wikipedia)

Nell’elaborazione coordinata distribuita di ML in più nodi edge, il modello ML distribuito è chiamato apprendimento federato. Nell’apprendimento federato, i dati di addestramento sono distribuiti su un gran numero di nodi. Un modello centralizzato viene addestrato dai nodi distribuiti che eseguono l’elaborazione

in modo indipendente. La maggior parte dei sistemi ML distribuiti di solito contengono un gruppo di nodi del server che gestiscono i parametri globali operativi ed eseguono anche l’operazione di aggiornamento. Questo processo sui parametri dei nodi durante l’apprendimento causano un enorme traffico di rete. Vengono valutati diversi algoritmi ML per l’allenamento federato che rivelano risultati sorprendenti. Ad esempio, quando la distribuzione dei dati non è uniforme, il tempo di convergenza del modello di allenamento è molto alto e la precisione è molto bassa. Pertanto, la sincronizzazione di un sistema ML distribuito è fondamentale per aggiornare accuratamente ogni sistema a livello globale utilizzando nuove informazioni. Tuttavia, la sincronizzazione è un’operazione ad alto costo che richiede cicli di comunicazione significativi per nuovi aggiornamenti per tutti i nodi partecipanti. L’eterogeneità della capacità delle risorse dei dispositivi IoT e la varietà delle serie di dati aumenterà ulteriormente i cicli di comunicazione al fine di sincronizzare gli ML tra tutti i nodi partecipanti. Nell’IoT, man mano che i set di dati per l’apprendimento diventano più grandi, i modelli saranno più complessi e i modelli di addestramento IA richiederanno sempre più la distribuzione dei parametri di ottimizzazione del modello su più macchine ML. Di conseguenza, l’utilizzo dell’intelligenza artificiale nelle reti IoT di grandi dimensioni con più nodi diversi e i collegamenti eterogenei, comporterà costi generali di comunicazione molto elevati.

L’IA NEI SISTEMI CLOUD CENTRALIZZATI

L’elaborazione e i costi di archiviazione possono essere ridotti al minimo utilizzando il Cloud centralizzato per sistemi ML. Tuttavia, i costi di comunicazione aumenteranno in quanto i dispositivi consumeranno link e budget di larghezza di banda elevati per trasportare i dati grezzi, i parametri del modello di addestramento e, successivamente, il risultato degli algoritmi di apprendimento tra il Cloud e l’utente finale. Gli algoritmi tradizionali dell’IA sono progettati per ambienti altamente controllati come i data center, dove si trovano i dati indipendenti e distribuiti in modo identico tra le macchine, e le reti ad alta velocità sono sempre a disposizione. Nelle reti wireless, entrambi questi presupposti possono non sempre essere validi, richiedendo frequenti ritrasmissioni di dati comportando un’ulteriore richiesta di risorse di rete. Allo stesso modo, le procedure di sicurezza potrebbero ulteriormente appesantire la rete. In sintesi, nelle operazioni basate sull’intelligenza artificiale, la raccolta continua di dati sarà inevitabile, conseguentemente aumenterà la diffusione degli algoritmi decisionali e si ridimensioneranno le risorse di rete (ad es. la larghezza di banda dei canali) ponendo sfide significative ulteriori, ancora di più nel caso dell’IA applicata nei sistemi Cloud centralizzati.

CRITICITÀ DI LATENZA DEI SISTEMI IOT

La natura dinamica dei futuri servizi IoT richiederà elaborazioni in tempo reale, teoricamente senza ritardi rilevabili. Tuttavia, a causa della bassa capacità IoT, i dispositivi impiegheranno molto più tempo per l’elaborazione degli algoritmi IA all’interno dei dispositivi IoT. L’acquisizione di dati (grezzi), quindi l’analisi dei dati dell’addestramento e il ciclo di feedback continuo in ML, introdurrà ritardi molto più elevati. Anche i sistemi iterativi o di feedback tradizionali (non ML) stanno mostrando criticità in termini di ritardi di elaborazione e di connessione per soddisfare i requisiti in tempo reale di servizi dinamici e di utenti mobili. Si consideri che il ritardo nell’addestramento dei modelli ML, ad esempio nelle applicazioni di streaming, renderà molto difficile soddisfare i requisiti di latenza. I risultati pratici rivelano che nella maggior parte dei casi l’approccio di apprendimento federato incorre in una latenza più elevata. In sistemi critici per la latenza come ad es. la tele-chirurgia, un ritardo estremamente ridotto, ad esempio nel muovere il braccio robotico, può essere catastrofico. La variabilità della latenza rende il servizio inaffidabile. Pertanto, l’apprendimento continuo e l’adeguamento dei sistemi che utilizzano apparati di IA per tali operazioni critiche, devono prima garantire la latenza richiesta dall’applicazione. Inoltre, devono essere considerati i limiti di tempo per l’utilità dei dati per l’elaborazione dell’IA e la validità del risultato dei meccanismi dell’IA. L’analisi dei sistemi ML distribuiti rivela che la di rete di comunicazione richiede più tempo di un ordine di grandezza superiore rispetto al tempo di elaborazione per l’addestrare dei modelli ML. Cruciale è anche il rispetto della completezza dei dati richiesti entro il lasso di tempo su cui effettuare le osservazioni da parte ML. Pertanto, la latenza in tali sistemi è cruciale quanto la validità o l’accuratezza del sistema. Si consideri che occorrono da due a cinque secondi di tempo durante l’elaborazione dei dati nel Cloud. Pertanto, si conclude che per le attività di apprendimento profondo (deep learning) in tempo reale, il Cloud non è ancora una soluzione praticabile a causa della maggiore latenza.

CONCLUSIONI

L’Intelligenza Artificiale ha acquisito un forte interesse nel settore della ricerca sulle reti wireless per far fronte alla natura sempre più complessa e diversificata dei dispositivi e servizi IoT. Tuttavia, la maggior parte della ricerca all’avanguardia si basa sui concetti dell’IA derivati da altre tecnologie consolidate, come la robotica e la visione artificiale, utilizzate per risolvere le diverse sfide complesse affrontate dai dispositivi e dai servizi IoT, nonché dalla rete al servizio dell’IoT. Un utilizzo così immediato dei concetti di intelligenza artificiale nell’infrastruttura di rete wireless pone molte sfide. L’obiettivo principale è indirizzare l’attenzione della ricerca futura verso la progettazione specifica della rete wireless, strumenti, algoritmi e persino verso discipline dell’IA per la comunicazione IoT. Inoltre, i requisiti generici di una rete wireless IoT sono dettati dalla necessità di integrazione dei concetti di IA nell’infrastruttura di rete wireless utilizzata dall’IoT.

[/boris]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Menu