1.4. Învãțarea nesupervizatã
Învăţarea nesupervizată elimină complet necesitatea unor instanţe de antrenament, deci şi problemele legate de acestea. Scopul învăţării nesupervizate nu este definit anterior ca un concept ţintă, algoritmul fiind lăsat singur să identifice concepte posibile.
În general, învăţarea nesupervizată presupune existenţa unor instanţe neclasificate, un set de reguli euristice pentru crearea de noi instanţe şi evaluarea unor concepte deduse, eventual un model general al spaţiului de cunoştinţe în care se găsesc aceste instanţe. Un algoritm de învăţare nesupervizată construieşte concepte pentru a clasifica instanţele, le evaluează şi le dezvoltă pe cele considerate “interesante” de regulile euristice. În general, concepte interesante sunt considerate cele care acoperă o parte din instanţe, dar nu pe toate. [2]
Învăţarea nesupervizată permite identificarea unor concepte complet noi plecând de la date cunoscute. Încercări de a aplica acest tip de învăţare în cercetarea ştiinţifică au dus la rezultate semnificative. Totuși, principalul factor ce limitează numărul şi relevanţa conceptelor învăţate de acest gen de algoritmi este faptul că ele nu pot învăţa noi metode de a crea şi evalua concepte. Pentru a obţine rezultate mai relevante, ar trebui întâi descris un set mult mai complex de operaţii pentru crearea de noi concepte, precum şi nişte reguli euristice mai flexibile pentru evalua aceste concepte.[3]
1.4.1. Clustering
Domeniul în care învăţarea nesupervizată s-a dovedit însă mai utilă este cel al identificării automate de clase în mulţimi neclasificate de instanţe. Această problemă presupune existenţa unei mulţimi de obiecte negrupate şi a unor mijloace de a găsi şi măsura similarităţi între aceste obiecte. Scopul unui algoritm de identificare a unor clase de obiecte este de a grupa obiectele într-o ierarhie de clase după criterii cum ar fi maximizarea similarităţii obiectelor din aceeaşi clasă. Ierarhia de clase este reprezentată de obicei ca un arbore, fii unui nod reprezentând categorii distincte dar incluse în categoria părinte. [6]
În cadrul clasificării nesupervizate, un grup de probleme importante sunt cele de clustering, denumite și probleme de clasificare nesupervizată. Acestea propun o partiționare optimală a spațiului datelor de intrare din punctul de vedere al unui anumit criteriu matematic, fără a folosi informații cunoscute dinainte. Avantajul acestor metode este acela că sunt complet automate, fără a fi nevoie de intervenția utilizatorului și pot fi folosite pentru clasarea datelor despre care nu cunoaștem informații referitoare la conținutul lor. Pe de altă parte, fiind un proces automat, relevanța grupurilor determinate tinde să fie mai scăzută decât în cazul clasificării supervizate, aceasta depinzând mult de metoda folosită și de puterea de discriminare a spațiului de caracteristici folosit. [5] Modelarea datelor pune clustering-ul într-o perspectivă istorică înrădăcinată în matematică, statistici, şi analiză numerică. Din perspectiva unei maşini de învăţare clusterii corespund tiparelor ascunse (hidden patterns), căutarea clusterilor este învăţarea nesupervizată, şi sistemul rezultat reprezintă un concept de date. Prin urmare, clustering este nesupervizat de un concept de date ascunse. Datele se referă la baze de date mari care impun grupare şi analiză suplimentară a cerinţelor de calcul.
Dintr-o perspectivă practică, clustering-ul joacă un rol de seamă în aplicaţii de data mining, cum ar fi explorarea ştiinţifică a datelor, extragerea de informaţii şi text mining, aplicaţii de baze de date spaţiale, analiza web, CRM, marketing, diagnosticarea medicală, biologie computaţională, şi multe altele. Clustering-ul este obiectul cercetării active în mai multe domenii cum ar fi statistici, recunoaşterea formelor, şi maşini de învăţare. Acest studiu se concentrează pe clustering în data mining. Data mining adaugă la clustering complicaţiile unor seturi de date foarte mari cu foarte multe atribute de diferite tipuri. Ele impun cerinţe de calcul unice pe algoritmi de clustering relevanţi.
Metodele de clustering pot fi clasificate după modelele pe care sunt bazate, fiecare dintre acestea putând genera diferite rezultate. În general, aceștia sunt împărțiți în două mari categorii: tehnici bazate pe metode partiționale și tehnici bazate pe metode ierarhice. Totuși, s-a ajuns în a se determina șapte clase principale în care pot fi clasificate problemele de clustering, acesea fiind:
-
Metode ierarhice: care pot fi aglomerative sau divizive.
-
Metode partiționale: algoritmi de relocare, clustering probabilistic, metoda K-means, metoda K-medoids, algoritmi bazați pe densități.
-
Metode bazate pe grid.
-
Clustering bazat pe constrângeri.
-
Metode evolutive de clustering: folosind algoritmi genetici.
-
Algoritmi scalabili de clustering.
-
Algoritmi bazați pe rețele neuronale.
1.4.2. Rețele cu auto-organizare (SOM)
Rețelele cu autoorganizare, cunoscute și sub denumirea de Self-Organizing Maps (SOM) sunt rețele care învață să formeze propriile lor clasificări ale datelor de intrare, fără ajutor extern. Acestea sunt rețele neuronale particulare pentru care neuronii constituenți devin sensibili la anumiți vectori de intrare prin intermediul unui proces de învățare nesupervizat.
Pentru a face acest lucru, apartenența la o anumită clasă este definită de anumiți vectori de intrare care împărtășesc aceleași caracteristici, iar rețeaua trebuie să identifice caracteristicile date în sfera vectorilor respectivi. Neuronii vor tinde să se ordoneze ca și cum rețeaua neuronală ar ar reprezenta un sistem de coordonate pentru vectorii de intrare. Astfel, este construită o hartă topografică artificială care învață prin auto-organizare într-o manieră inspirată din neurobiologie. Obiectivul principal al unui SOM este de a transforma un model de semnal de intrare de dimensiune arbitrară în una sau două hărţi dimensionale discrete. Astfel, în cursul învățării, neuronii constituenți vor alege anumite modele sau clase de vectori de intrare, iar locațiile lor vor deveni sisteme de coordonate pentru caracteristicile de intrare. [2]
Rețelele cu auto-organizare oferă o modalitate elegantă de a reprezenta date multidimensionale în spații dimensionale reduse, de 1-2 dimensiuni prin cuantificarea vectorilor. Astfel, rețelele vor memor informația astfel încât orice relație topologică din setul de învățare va fi reținută.
1.4.3. Învățarea Hebbiană
O altă tehnică folosită în învățarea nesupervizată este bazată pe legea lui Hebb, formulată în 1949. Aceasta presupune tot existența unei rețele neuronale artificiale nesupervizate, care însă este descrisă prin două condiții care privesc modul de declanșare a neuronilor în cadrul realizării calculelor. Prima condiție se referă la faptul că dacă doi neuroni sunt activați în același timp de către un stimul conținut în vectorul datelor de intrare atunci poderea conexiunii dintre ei crește, iar ce-a de-a două condiție afirmă că dacă doi neuroni sunt activați în contratimp, atunci ponderea conexiunii dintre ei scade. [2]
Dostları ilə paylaş: |