Neuroni Artificiali
Il funzionamento di questo tipo di unità può essere
schematizzato come segue:
1) I segnali arrivano agli ingressi di ununità (sinapsi)
2) Leffetto (PSP) che ogni segnale ha può essere
approssimato moltiplicando il segnale per un certo numero che
indica il peso della sinapsi.
3) I segnali pesati vengono sommati per ottenere una
attivazione dellunità.
4) Se lattivazione supera una certa soglia lunità
produce un output.
Questo schema è conosciuto come Threshold Logic Unit (TLU) e fu
proposto originariamente da McCulloch e Pitts.
Schema di una TLU.
Supponiamo di avere n segnali di ingresso x1,x2,
,xn, e
pesi w1,w2,
,wn. I segnali possono assumere solo i valori 0
e 1 cioè i segnali assumono valori Booleani. Lattivazione
a è data da:
a=w1x1+w2x2+
+wnxn=SOMMATORIA( wixi) , i=1
n
Luscita y è data da:
1 se a>=T
y=
0 se a<T
Il valore di soglia T sarà spesso 0. La funzione soglia è spesso chiamata funzione gradino o hard limiter. Per fare un riferimento ai neuroni biologici 1 rappresenterà la presenza di potenziale mentre 0 la sua assenza.