venerdì 8 maggio 2020

step #13 Nell'ingegneria:la struttura del pensiero e le reti neurali

Lo studio della struttura dei meccanismi naturali ha portato l'ingegneria a compiere passi da gigante nell'ultimo secolo e la inesauribile sete di conoscenza che è motore di scoperte ha portato in scena una nuova frontiera, l'Intelligenza Artificiale. Ingegneri e neuroscienziati si trovano di fronte al grande quesito di cosa sia la coscienza umana, di quale sia la sua struttura, e a partire dalla metà del secolo scorso una possibile strada per scoprire la natura della mente è stata aperta: la riproduzione artificiale di un modello che imiti il funzionamento di superficie della mente. Le reti neurali artificiali
sono infatti modelli matematici composti da neuroni artificiali che traggono ispirazione dalle reti neurali biologiche e trovano applicazione negli ambiti ingegneristici dell'informatica, dell'elettronica e delle simulazioni.
Il primo passo verso la loro nascita avvenne solo nel 1943 ad opera del neurofisiologo Warren Sturgis McCulloch e del matematico Walter Pitts i quali pubblicarono l'articolo "A logical calculus of the Ideas immanent in Nervous activity" nel quale modellarono un primissimo neurone artificiale in cui lo strato di input prevedeva dati binari multipli in entrata, mentre per l'output era previsto un singolo dato binario. Nelle moderne reti neurali lo strato di input o strato degli ingressi è quello indirizzato alla ricezione e elaborazione dei segnali in ingresso, seguito dallo strato H-hidden, in cui avviene la vera e propria elaborazione all'interno di una strutturata rete di neuroni multipli, a sua volta seguito dallo strato di uscita in cui sono raccolti i risultati dell'elaborazione (a titolo di esempio il processo di facial recognitioning). Fu lo psicologo canadese Donald Olding Hebb a cercare di spiegare i modelli complessi del cervello e a ipotizzare un possibile funzionamento delle reti neurali nel processo di apprendimento. Il cosiddetto apprendimento hebbiano da lui studiato introdusse il concetto di "peso" di una connessione basato sul principio di interconnessione rafforzata dalla simultanea attivazione di più neuroni. Ma il vero antesignano delle moderne reti neurali vide la luce nel 1958 ad opera dello psicologo e computer scientist Frank Rosenblatt; da lui chiamato Perceptron, questa rete con uno strato di ingresso ed uno di uscita operava in base all'algoritmo 'error back-propagation' o minimizzazione degli errori grazie al quale in base alla valutazione dei dati effettivi in uscita rispetto a un dato in ingresso, alterava i pesi delle sinpasi artificiali alterando l'esito dell'interconnessione.


Info:
immagine tratta da ai4business.it





Nessun commento:

Posta un commento

Sintesi finale e mappa per orientarsi nel blog

L'intento di questo blog è quello di mostrare come la riflessione intorno al concetto di Struttura riveli la profonda interconnessione...