Neuroni Artificiali

Il funzionamento di questo tipo di unità può essere schematizzato come segue:
1) I segnali arrivano agli ingressi di un’unità (sinapsi)
2) L’effetto (PSP) che ogni segnale ha può essere approssimato moltiplicando il segnale per un certo numero che indica il peso della sinapsi.
3) I segnali “pesati” vengono sommati per ottenere una attivazione dell’unità.
4) Se l’attivazione supera una certa soglia l’unità produce un output.
Questo schema è conosciuto come Threshold Logic Unit (TLU) e fu proposto originariamente da McCulloch e Pitts.

Schema di una TLU.
 

Supponiamo di avere n segnali di ingresso x1,x2,…,xn, e pesi w1,w2,…,wn. I segnali possono assumere solo i valori 0 e 1 cioè i segnali assumono valori Booleani. L’attivazione a è data da:
a=w1x1+w2x2+…+wnxn=SOMMATORIA( wixi) , i=1…n

L’uscita y è data da:
          1 se a>=T
y=
          0 se a<T

Il valore di soglia T sarà spesso 0. La funzione soglia è spesso chiamata funzione gradino o hard limiter. Per fare un riferimento ai neuroni biologici 1 rappresenterà la presenza di potenziale mentre 0 la sua assenza.

Rappresentazione Geometrica

Addestramento di una TLU