MVEX01-20-07 Regulariserade och icke-regulariserade neurala nätverk för applikationer i klassificeringsproblem

​Maskininlärning är ett fält av artificiell intelligens som ger datorsystem förmågan att "lära sig" med hjälp av tillgängliga data. En av de viktiga delarna av maskininlärning är neurala nätverk. Neurala nätverk är datorsystem som inspireras av biologiska neurala nätverk och "lär sig" med hjälp av tillgängliga data att utföra uppgifter genom att överväga exempel, i allmänhet utan att vara programmerad med uppgiftsspecifika regler.
I detta projekt kommer vi att begränsa oss till den specifika klassen av neurala nätverk som kallas multilayer perceptron.
Målet med detta projekt är numeriska studier och jämförelse av regulariserade och icke-regulariserade neurala nätverk i problemet med att upptäcka interklass gränser. Vi ska upptäcka konvergens av studerade algoritmer och jämföra deras prestanda med avseende på användbarhet, tillförlitlighet, noggrannhet och effektivitet. Program skrivna i Matlab kommer att demonstrera prestanda för varje algoritm.
Projektbok:  Miroslav Kubat, An Introduction to Machine Learning, Springer, 2017.

Projektkod MVEX01-20-07
Gruppstorlek 3-4 studenter
Målgrupp GU- och Chalmersstudenter. För GU-studenter räknas projektet som ett projekt i Tillämpad matematik (MMG900/MMG920).
Projektspecifika förkunskapskrav
Se respektive kursplan för allmänna förkunskapskrav. Utöver de allmänna förkunskapskraven i MVEX01 ska Chalmersstudenter ha avklarat kurser i en- och flervariabelanalys, linjär algebra och matematisk statistik.
Handledare Larisa Beilina, 031-7725367, larisa.beilina@chalmers.se
Examinator Maria Roginskaya, Ulla Dinger
Institution Matematiska vetenskaper 

Publicerad: fr 06 dec 2019.