Home Cloud Intelligenza artificiale, piace alle imprese ma adozione ancora lenta

Intelligenza artificiale, piace alle imprese ma adozione ancora lenta

Idc ha presentato di recente il suo AI InfrastructureView, uno studio sulle tendenze di adozione dell’infrastruttura e dell’infrastructure-as-a-service per i casi d’uso di intelligenza artificiale e machine learning.

Lo studio è pensato per essere eseguito come sondaggio annuale globale su 2.000 decisori It, dirigenti line of business e professionisti It.

La maggior parte dei partecipanti al sondaggio influenza l’acquisto di infrastrutture, servizi, sistemi, piattaforme e tecnologie per l’intelligenza artificiale.

In tal modo, la ricerca vuole offrire insight profondi sui requisiti infrastrutturali delle imprese che investono in iniziative di intelligenza artificiale.

I risultati del sondaggio – ha sottolineato Idc – mostrano, da un lato, che le iniziative di intelligenza artificiale e machine learning stanno guadagnando costantemente terreno, con il 31% degli intervistati che dice di averne in produzione.

Tuttavia, la maggior parte delle imprese è ancora in una fase di sperimentazione, valutazione/test o prototipazione.

Del 31% con iniziative in produzione, solo un terzo afferma di aver raggiunto uno stato maturo di adozione, in cui l’intera organizzazione beneficia di una strategia di intelligenza artificiale a livello aziendale.

Per le organizzazioni che investono in intelligenza artificiale, migliorare la soddisfazione dei clienti, automatizzare il processo decisionale e automatizzare i compiti ripetitivi sono i tre principali vantaggi dichiarati, a livello di organizzazione.

Tra i risultati chiave della ricerca AI InfrastructureView 2021 di IDC, c’è il fatto che quella per l’intelligenza artificiale rimane una delle decisioni infrastrutturali più consequenziali ma meno mature che le organizzazioni prendono.

Le organizzazioni non hanno ancora raggiunto un livello di maturità nella loro infrastruttura di intelligenza artificiale. Ciò include gli investimenti iniziali, la realizzazione di vantaggi e il ritorno sugli investimenti, e il fatto di assicurarsi che l’infrastruttura si adatti alle esigenze del business.

Le principali sfide per le imprese

I costi elevati rimangono la più grande barriera agli investimenti, che porta molti ad eseguire i loro progetti di intelligenza artificiale in ambienti cloud pubblici condivisi.

I costi iniziali sono alti, e ciò porta molti ad andare al risparmio e quindi esacerbare il problema. Le persone, i processi e la tecnologia rimangono le tre aree chiave dove le imprese trovano le maggiori sfide e dove le organizzazioni devono concentrare i loro investimenti per avere maggiori opportunità.

Secondo l’analisi di Idc, avere a che fare con i dati è il più grande ostacolo per le organizzazioni che investono in infrastrutture di intelligenza artificiale.

Alle aziende manca il tempo per costruire, addestrare e distribuire modelli di intelligenza artificiale. Dicono che gran parte del loro tempo di sviluppo dell’intelligenza artificiale è speso solo per la preparazione dei dati.

A molti manca anche l’expertise o la capacità di preparare i dati. Questo sta portando a un nuovo mercato di modelli pre-addestrati. Tuttavia – sottolinea Idc –, come qualsiasi cosa off the shelf, i modelli pre-addestrati hanno i loro limiti.

Tra i limiti: la disponibilità e l’adattabilità del modello, i limiti dell’infrastruttura per eseguirlo e l’insufficiente competenza interna.

Le dimensioni dei modelli stanno anche crescendo, rendendo difficile la loro esecuzione su infrastrutture generiche.

Le organizzazioni si aspettano che, una volta superato questo ostacolo, sposteranno i loro sforzi verso l’inferenza.

Investimenti in intelligenza artificiale

Gli investimenti nell’infrastruttura di intelligenza artificiale – prosegue l’analisi di Idc – stanno seguendo modelli familiari in termini di tecnologie di computing e storage on-premise, nel cloud pubblico e sull’edge.

Le aziende stanno aumentando i loro investimenti nei servizi infrastrutturali di cloud pubblico, ma per molti quella on-premise è e rimarrà la posizione preferita.

Oggi, per il training e l’inferenza dell’intelligenza artificiale, c’è una divisione equa tra cloud, on premise e edge.

Tuttavia – mette in evidenza Idc –, molte aziende si stanno spostando verso pipeline di dati che si estendono tra il loro datacenter, il cloud e/o l’edge.

L’edge offre continuità operativa dove non c’è connettività di rete o questa è limitata. Anche la sicurezza, la compliance e i costi giocano un ruolo importante.

Il calcolo accelerato da GPU, i processori host con software di AI-boosting e i cluster ad alta densità sono i requisiti principali per l’infrastruttura di calcolo on-premise/edge e basata sul cloud per il training e l’inferenza di intelligenza artificiale.

L’accelerazione FPGA, i processori host con software AI-boosting o GPU on-prem, e i sistemi di scale-up simili all’HPC sono le tre principali priorità per l’infrastruttura di calcolo on-premise/edge-based per l’inferenza.

Nel cloud, le priorità più alte sono l’accelerazione GPU e un processore host con AI-boost, seguito da cluster ad alta densità. Più carichi di lavoro di intelligenza artificiale usano blocchi e/o file che oggetti, a oggi.

Leggi tutti i nostri articoli sull’intelligenza artificiale

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php