I denne artikkelen studerer vi nevrale nettverk som tilnærminger til en relatert kjerne-metode (kernel method). Vi analyserer forutsigelsene gjort av et enkelt nevralt nettverk med et skjult lag. To kilder til varians i forutsigelsene blir identifisert og eliminert gjennom introduksjonen av Lineære Differeanse-Nettverk. Det vises at for en uendelig ensemble av uendelig vide nevrale nettverk, vil forutsigelsene bli nøyaktig de samme som for en kjerne-metode. Vi verifiserer empirisk at endelige Lineære Differanse-Nettverk faktisk gir forutsigelser mer lignende denne ideelle kjerne-metoden enn et normalt nevralt nettverk
I denne masteroppgaven implementeres og testes to algoritmer for å finne gruppe- struktur i nettverk...
Temaene om maskinlæring og 8-bit mikrokontrollere blir generelt ansett som inkompatible, som følge a...
Punktbaserte metoder for deterministisk videresending av usikkerhet kan benyttes i kombinasjon med u...
Den økende mengden med tilgjengelig måledata har gjort at data-drevet modellering og maskin læring h...
Å oppdage og klassifisere gjenstander i et bilde er en viktig underoppgave i bygge algoritmer som sa...
Denne oppgaven tar for seg to forskjellige tilnærminger for å analysere kurver. I den første tilnærm...
I denne oppgaven ser vi på effekten av dyp læring som optimal kontroll på mangfoldigheter. Vi utvikl...
Ved å kunne klare å klassifisere atferder hos kalv på beite så vil man kunne gi bonden en nyttig ind...
I denne oppgaven presenteres et forsøk på å gjenskape den såkalte primærsirkelen av pikselmatriser i...
Nevrale nettverk (NNs) har vist høy prediktiv ytelse, men med mangler. For det første er ikke årsake...
Denne masterrapporten vil se på metoder for usikkerhetsestimering av nevrale nettverk. For å begrens...
Hensikten med denne oppgaven er å undersøke hvordan differensieringsgraden i tosidige TV - marked...
Hill-funksjonen er et sigmoid som er mye brukt i modellering av genetiske nettverk. I denne oppgaven...
Denne masteroppgaven ser på hvordan feil sprer seg gjennom et nettverk. En enkel modell for feil- og...
I denne masteroppgaven har nevroevolusjon blitt brukt for å automatisk utvikle de fleste av hyperpar...
I denne masteroppgaven implementeres og testes to algoritmer for å finne gruppe- struktur i nettverk...
Temaene om maskinlæring og 8-bit mikrokontrollere blir generelt ansett som inkompatible, som følge a...
Punktbaserte metoder for deterministisk videresending av usikkerhet kan benyttes i kombinasjon med u...
Den økende mengden med tilgjengelig måledata har gjort at data-drevet modellering og maskin læring h...
Å oppdage og klassifisere gjenstander i et bilde er en viktig underoppgave i bygge algoritmer som sa...
Denne oppgaven tar for seg to forskjellige tilnærminger for å analysere kurver. I den første tilnærm...
I denne oppgaven ser vi på effekten av dyp læring som optimal kontroll på mangfoldigheter. Vi utvikl...
Ved å kunne klare å klassifisere atferder hos kalv på beite så vil man kunne gi bonden en nyttig ind...
I denne oppgaven presenteres et forsøk på å gjenskape den såkalte primærsirkelen av pikselmatriser i...
Nevrale nettverk (NNs) har vist høy prediktiv ytelse, men med mangler. For det første er ikke årsake...
Denne masterrapporten vil se på metoder for usikkerhetsestimering av nevrale nettverk. For å begrens...
Hensikten med denne oppgaven er å undersøke hvordan differensieringsgraden i tosidige TV - marked...
Hill-funksjonen er et sigmoid som er mye brukt i modellering av genetiske nettverk. I denne oppgaven...
Denne masteroppgaven ser på hvordan feil sprer seg gjennom et nettverk. En enkel modell for feil- og...
I denne masteroppgaven har nevroevolusjon blitt brukt for å automatisk utvikle de fleste av hyperpar...
I denne masteroppgaven implementeres og testes to algoritmer for å finne gruppe- struktur i nettverk...
Temaene om maskinlæring og 8-bit mikrokontrollere blir generelt ansett som inkompatible, som følge a...
Punktbaserte metoder for deterministisk videresending av usikkerhet kan benyttes i kombinasjon med u...