Raccolta News di Economia e Finanza aggiornate in tempo reale

Intravedete un futuro inquietante in un mondo dominato dalle macchine dove l’uomo subisce la volontà di potentissimi sistemi di intelligenza artificiale? Come nella saga di Matrix, per esser chiari? Fate solo bene. Perché la ricerca sulla famigerata AI sta compiendo passi da gigante. Siamo infatti già arrivati, pur a livello di sperimentazione, a costruire sistemi complessi in grado di imparare da soli… senza che i programmatori abbiano più il controllo sul come e perché lo facciano. Del panorama affascinante, ma al tempo stesso inquietante, sulla ricerca in questo campo ne offre un dettagliato spaccato il sito web del prestigioso MIT (Massachusetts Institute of Technology, USA), partendo proprio dagli ultimi sviluppi nel settore della guida autonoma.

Già nel 2016 – riporta il sito – i veicoli sperimentali a guida autonoma sviluppati dai ricercatori del produttore mondiale di chip elettronici Nvidia, hanno iniziato i test basati su tecnologie totalmente differenti rispetto a quelle sinora conosciute in uso a Google, Tesla o General Motors. Ebbene, tali veicoli non hanno seguito alcuna singola istruzione fornita da ingegneri o programmatori per regolare la loro marcia nel traffico: al contrario, si sono basati interamente su un algoritmo in grado di apprendere da solo come guidare (AI, appunto) osservando gli umani mentre lo fanno.

Vi pare poco? Non lo è, poiché ai ricercatori non è del tutto chiaro come la macchina sia in grado di prendere le sue decisioni. Tutte le informazioni provenienti dai vari sensori del veicolo, infatti, vengono immesse in una grande rete di neuroni artificiali che elaborano dati a svariati sottolivelli e, in seguito, forniscono i comandi necessari per azionare volante, freni e altri sistemi. Il risultato sembra corrispondere alle risposte che ci si aspetta da un pilota umano, ma non si possono escludere decisioni improvvise del tutto contrarie alla logica del traffico.

Il difficile (se non impossibile) per i progettisti, è proprio scoprirne il perché. Per sua natura, l’apprendimento profondo è una “scatola nera”: non si può semplicemente osservare una rete neurale in profondità per vedere come funziona. Il ragionamento di una rete è incorporato nel comportamento di migliaia di neuroni simulati, organizzato in decine o addirittura centinaia di strati interconnessi. I neuroni nel primo strato ricevono ciascuno un ingresso, come l’intensità di un pixel in un’immagine, e quindi eseguono un calcolo il cui risultato alimenta un successivo segnale. Queste informazioni arrivano ai neuroni dello strato successivo e così via, fino a produrre un risultato finale complessivo.

Inoltre, v’è un processo noto come retro-propagazione che stimola i calcoli dei singoli neuroni per permettere alla rete di imparare a produrre il risultato desiderato. I vari substrati di una rete profonda consentono di riconoscere le cose con diversi livelli di astrazione. Ecco un esempio: in un sistema progettato per riconoscere i cani, i livelli più bassi riconoscono cose semplici come contorni o colore mentre quelli superiori cose più complesse come la pelliccia o gli occhi. Solo il livello più alto individua l’insieme come un cane. Lo stesso approccio può essere applicato ad altri input che portano un’auto ad apprendere da sola, partendo ad esempio dai movimenti del volante necessari per la guida.

L’articolo Guida autonoma, macchine che guidano da sole comandate da “cervelli” che imparano da soli. Ci sono rischi? proviene da Il Fatto Quotidiano.

tovato su: Il Fatto Quotidiano

Notizie del italia, economia, notizie italia

Quotidiani

Il Denaro, Il Fatto Quotidiano, Libero Quotidiano

Rispondi

Archivi