Felügyelt tanuláskor a tanításra használt adathalmaz egyúttal tartalmazza a minták helyes értékeit is, ezeket nevezik annotált adathalmazoknak. Egy karaktereket felismerő modellben az annotáció maga a képeken lévő karakter, egy állatokat osztályozó és lokalizáló modelleben az annotáció az állat fajtája és a befoglaló téglalap koordinátái a képen. Semantikus szegmentáláshoz minden egyes pixelt hozzá kell rendelni egy osztályhoz és az lesz a várt eredmény. Azért is értékes az adat, mert óriási munka egy adathalmaz annotálása. A supervised learning használható Spam üzenetek szűrésétől kezdve az időjárás előrejelzésen át számos feladatra.
A felügyelet nélküli tanulás az előzőek alapján nyilvánvalóan azt jelenti, hogy címkézetlen adaton tanul az algoritmus. Ekkor önállóan kell a mintákat, struktúrákat felismerni, természetes úton jönnek létre osztályok, de ezek nem is feltétlenül kapnak nevet. Tanulás után egy új mintát a hozzá legközelebbi csoportba sorolja a program. Kifejezetten hasznos az unsupervised learning például marketing szempontból vevői csoportokat alkotni, amellyel hatékkonyabb célzott reklámozás és relevánsabb termékajánlások érhetők el.
Az RL algoritmusok tanulás közben a különbözű műveletek visszajelzései alapján vannak jutalmazva, idővel felfedezik a legjobb utat a cél eléréséhez. Önmaguktól megtanulnak akár rövidtávú büntetéseket is vállalni, hogy később optimálisabb eredményt érjenek el. Tipikusan alkalmazható videójátékok megtanulására vagy útvonalkereső robotok ismeretlen területen való mozgásának tökéletesítésére is.
Az Artificial Neural Network és a Deep Neural Network azonos koncepcióra épülnek, a DNN komplexebb, vagyis mélyebb struktúrára utal. A neuronok rétegeket alkotnak, az adat rétegről rétegre áramlik. Ha a bemeneti és a kimeneti rétegek között sok rejtett réteg van, akkor az egy mélytanuló háló. Minden neuron a vele összekötött társaitól értékeket kap, azokat beilleszti egy képletbe, majd tovább adja. A háló tanítása a legjobban működő képleteknek a feltárását jelenti, ami sok időbe, próbálkozásba, számítási kapacitásba kerül.
A neuronok körrel ábrázolhatók, a rétegek neuronjait vonalak kötik össze. Minden vonalnak súlya van, ami azt mutatja, hogy az onnan érkező adat mennyire fontos. A neuronok súlyozva összeadják az akár több ezer vagy millió másik neurontól kapott értéket, majd hozzáadnak egy konstanst (a neve bias), ami minden neuronnak egyedi. A kiszámolt értéket nem adják rögtön tovább, előbb beillesztik egy függvénybe (Activation function).
$ y = f(b + \displaystyle\sum_{i=0}^{n} x_i ⋅ w_i) $
Feladatuk megtörni a linearitást, különben a neurális háló egyszerű lineáris vagy polinomiális regresszióként viselkedne. Ahhoz, hogy a bemeneti és kimeneti adatok közötti komplex összefüggés megtanulható lehessen, különböző függvények használhatók. A lenti ábrán nem szerepel az egyik legfontosabb függvény, a Softmax, mivel nem ábrázolható. Kimeneti rétegeknél szokás alkalmazni, valószínűségi eloszlást ad válaszul.
$ \dfrac{e^{z_i}}{\displaystyle\sum_{j=1}^{K} e^{z_j}} $
Egy betanított neurális hálóban használat közben az adat a bemenettől a kimenet felé áramlik. Ekkor már az összes weight és bias adott. A forward propagation tehát a kész neurális hálózat használatára utal, amelyhez kisebb számítási kapacitás is elegendő lehet, akár egy irodai laptop, okostelefon vagy mikrovezérlő.
A tanulás első lépése véletlenszerű weight és bias értékek generálásával kezdődik. Ezután a tanító halmaz és az annotációk használatával az algoritmus visszafelé vizsgálódva hangolja őket, közben folymatosan számol hibát (keresztentrópia, MSE stb.) és parciális deriváltakat, majd egy optimalizáló (pl. Gradient descent, Adam) segítségével frissíti a súlyokat és bias értéket. A cél nyilvánvalóan iterációnként csökkenteni a hibát.
Két gyakran előforduló fogalom az osztályozás és a regresszió. A regresszió lényege, hogy a kimeneti értéke nem egy kategóriát, osztályt jelöl, hanem bármilyen értéket felvehet. Egy ingatlan árának becslése, képeken emberi pózok vagy objektumok befoglaló téglalapjának meghatározása, fényképek felbontásának növelése mind regressziós problémák. Az osztáyozás kimenetei is számok, de céljuk a kategória megjelölése.
Neurális hálózatokon kívül további gépi tanuló technikák az SVM (Support Vector Machine), a Decision Tree, kNN (k-Nearest Neighbour), Naiv Bayes és még sok más, amelyeknek mind megvan a maguk felhasználása.