Negli ultimi anni, le reti neurali sono diventate un elemento centrale nella ricerca sull'intelligenza artificiale, e un gran numero di architetture e algoritmi sono stati sviluppati per questo tipo di modelli. L'obiettivo di questo libro è spiegare, con un linguaggio il più semplice e intuitivo possibile, gli elementi chiave che hanno guidato questa evoluzione.
Il libro presenta in modo vivace ed esauriente i temi classici delle reti neurali: il percettrone, l'algoritmo LMS, la macchina di Boltzmann, l'algoritmo di Kohonen e gli algoritmi per l'apprendimento non supervisionato. Tratta inoltre altri metodi probabilistici, tra i quali i modelli composti da gaussiane e l'algoritmo EM, le reti a moduli di esperti, e i modelli di Markov nascosti (HMM). Presenta inoltre alcuni tra gli argomenti più studiati recentemente, quali le macchine a supporto vettoriale (SVM), l'analisi delle componenti indipendenti (ICA), e l'apprendimento con rinforzo (RL). Tutto questo è presentato in un linguaggio matematico rigoroso ma chiaro ed intuitivo, accessibile ai principianti e di interesse per gli esperti.
Il libro è rivolto a ricercatori che si occupano della teoria delle reti neurali e dell'apprendimento. È stato anche pensato come testo per un corso avanzato di livello universitario sulle reti neurali. La trattazione dei vari modelli di reti neurali e degli algoritmi di apprendimento è completa, e non richiede alcuna conoscenza a priori sulle reti neurali.
Carlotta Domeniconi si è laureata in Scienze dell'Informazione all'Università Statale di Milano nel 1992. Ha quindi trascorso 18 mesi presso il Massachusetts Institute of Technology nel gruppo di ricerca del professor Michael Jordan, con il quale ha approfondito i suoi interessi sulle reti neurali e l'apprendimento. Nel 1997 ha conseguito il Master in Tecnologie Avanzate dell'Informazione e della Comunicazione presso l'Istituto Internazionale per gli Alti Studi Scientifici "Eduardo R. Caianiello". Dal gennaio 1998 è impegnata nel conseguimento del dottorato di ricerca (Ph.D.) in Computer Science alla University of California, Riverside, dove svolge ricerca occupandosi soprattutto di apprendimento, data mining, pattern classification e di reti neurali.
Michael Jordan è professore ordinario presso il dipartimento di Electrical Engineering e Computer Science e presso il dipartimento di Statistics alla University of California, Berkeley. I suoi interessi di ricerca si collocano tra l'informatica e la statistica, e hanno prodotto più di 100 articoli. Ha esplorato diversi aspetti dell'apprendimento, tra cui le reti neurali, gli alberi di decisione, i modelli di Markov nascosti e i modelli grafici. Negli ultimi anni si è dedicato allo sviluppo di metodi di approssimazione per effettuare inferenze probabilistiche con i modelli grafici, prestando particolare attenzione ai metodi variazionali (mean field). Ha sostenuto seminari alla International Conference on the Mathematical Theory of Networks and Systems, alla American Association for Artificial Intelligence, alla International Joint Conference on Neural Networks, alla ACM Conference on Computational Learning Theory, e alla Conference on Uncertainty in Artificial Intelligence.