Big Data in Internet of Things Introducere



Yüklə 77,6 Kb.
tarix30.07.2018
ölçüsü77,6 Kb.
#64464

Big Data in Internet of Things

Introducere
Scopul acestei lucrari este de a investiga cele doua concepte, “Internet of things” si “Big Data”, cum se genereaza datele in industria IoT si importanta contextului intre IoT si Big Data si analiza unei metodologii.
Rezumatul lucrarii

In Capitolul 1 s-a vizitat succinct istoricul din spatele celor doua concepte. In Capitolul 2 s-au definit aceste concepte si s-a enumerate o parte din lucrurile specifice a fiecaruia, s-au vizitat putin industriile si companiile implicate. In capitolul 3 s-a studiat metodologia si algoritmul iar in Capitolul 4 s-a rezumat o tehnologie specifica pentru metodologia independenta de domeniu prezentata ulterior. In capitolul 5 s-au enumerat concluziile cu privire la metodologiea propusa si concluziile generale.


Capitolul 1.Isotric


    1. Internet of Things

Totul a inceput cu revolutia digitala, se preconizeaza ca aceasta a inceput undeva intre anii 1945 si 1970, oamenii care au trait in acea perioada au fost martorii trecerii de la tehnologia electronica analogica si mecanica la tehnologia digitala. La sfarsitul anilor 1970, datorita tehnologiei digitale, a fost introduce primele computere, primele console digitale si desigur perioada aceasta a marcat si aparitia primelor jocuri de tip arcade.

Pe la inceputul anilor 1980 computerele au inceput sa fie din ce in ce mai prezente in casele, scolile si birourile oamenilor. Conceptul de dispositive conectate la retea fiind prima data introdus tot la inceputul acestor ani.

In anul 1982 Universitatea Carnagie Mellon din Pittsburgh Pansilvania a conectat primul aparat la o retea, un vending machine de sucuri carbogazoase. Acest aparat era capabil sa inregistreze inventariul de sucuri si sa transmita daca acestea aveau temperature optima.

Conceptul de IoT a devenit popular doar pe la sfarsitul anilor 90 datorita publicatiilor oferite de catre cercetatorii de la MIT. Tehnologia RFID (radio frequency identification) a fost considerata de catre Kevin Ashton(unul dintre cercetatorii de top de la MIT si unul dintre fondatorii centrului de cercetare “Auto-ID Center”) foarte importanta in dezvoltarea conceptului si mai apoi a industriei de IoT.

La inceputul anilor 2000, Qualcom a introdus pe piata primul telefon intelligent (smartphone). In 2017 practic tot ce ne inconjoara poate sa fie integrat in categoria smart (Smartphones, smart city’s, smart homes, smart cars, etc). O data cu aparitia dispozitivelor inteligente a venit si nevoia interconectarii acestora. Asa s-a nascut industria IoT.

În zilele noastre exista sisteme performante utilizate pentru a automatiza o casa, precum sistemul Smart Home. In mod uzual aceasta tehnologie are sisteme automate de iluminare, control al temperaturii, securitate si multe alte functii [1] si permite integrarea controlerelor de device-uri electronice în sisteme de comunicatii [2,3]. De cand a fost introdus pe piata acest sistem a evoluat de la tipurile de controlere pana la sistemul de telecomunicatii utilizat [4,5], pana in punctul in care utilizeaza tehnologie wireless [6,7] modele de simulare cu interfate/canale multiple [8,9] cu suport software ce monitorizeaza de la temperatura, umiditate, lumina, alarma, pana la densitate gazoasa, sistem ce poate fi accesat via internet de oriunde din lume [10].
1.2 Big Data
Nevoia stocarii de date si a catalogarii acesteia este prezenta inca din antichitate, un exemplu bun fiind biblioteca din Alexandria, care a fost probabil cea mai mare colectie de date din lumea antica.

In anul 1944 Fremont Rider a estimata ca bibliotecile americane isi dubleaza capacitatea o data la 16 ani. Luand in calcul rapiditatea expansiunii stocarii de date acesta a mai preconizat ca pana in anul 2040, biblioteca Universitatii Yale va dispune de 200 .000.000 de volume. Acesta a mai precizat ca un volum atat de mare de informatii va avea nevoie de un numar de 6.000 de angajati care sa se ocupe de catalogarea acestora.[19]

Din fericire acest lucru nu a fost necesar deoarece o data cu aparitia erei digitale si a internetului s-a decoperit metode mult mai eficiente de stocare si catalaogare a datelor.

In isoria moderna, inainte ca informatiile sa fie stocate digital, acestea au fost stocate analogic (fonograf, gramofon, magnetofon) insa o data cu trecerea timpului acestea au fost inlocuite de tehnologii mult mai avansate si mult mai eficiente.

Se considera ca anul 2002 a marcat mementul in care informatiile au inceput sa fie stocate in format digital, acestea fiind stocate in mare parte in format analogic pana atunci.

In urma unui studiu facut in anul 2007 s-a estimat ca, capacitatea de stocare a informatiilor in format analogic si digital a crescut de la 3 exabiti (1986) la 295 exabiti (2007).

Desii conceptual de Big Data este relativ nou, stocarea si analiza datelor nu este un proces nou. Analiza datelor, la fel ca si in sotacarea acestora, este prezenta de foarte multi ani. In anii 1950 cu mult inainte ca Big Data sa intre in existenta, oamenii analizat datele printr-un proces de baza. Ca o explicatie foarte simplificata a procesului, analiza datelor printr-un proces de baza se facea prin intermediul unui set de numere pe o foaie care erau analizate unlerior manual.
Capitolul 2. Definirea
2.1. Ce este IoT?
“Internet of things” este un sistem de dispositive computerizate interconectate (masini, aparate mecanice, digitale, obiecte) care dispun de identificatori unici. Dispun de asemenea de capacitatea de a transfera date printr-o retea fara a fii necesara interactiunea dintre om si computer.

Avantajul acestui sistem vine de la impactul indiscutabil pe care-l produce asupra

user-ilor.

Industria IoT (Internet of Things) se misca rapid, iar acest lucru este confirmat de multitudinea de aplicatii lansate in ultimii ani. Conform statisticilor, la nivel mondial exista 19 milioane de developeri, iar analistii estimeaza ca 1 din 5 developeri va programa solutii IoT pana in 2020 [11].

In ultimii ani aceasta a inceput sa devina o industrie foarte mare, aceasta are un potential impact economic de 2.7-6.2 trilioade de dolari pana in anul 2025.[12]
2.2. Industriile in care activeaza IoT
In tabelul de mai jos sunt prezentate industriile in care dispozitivele IoT sunt prezente, acest table nu dispune de o ordine anume.





Fabricatie

Transport

Securitate

Agricultura

Infrastructura

Vanzari Produse

Logistica

Banci

Ulei,gaz si minerit

Asigurari

Case inteligente

Servicii de alimentatie publica

Utilitati

Spitale

Servicii Medicale

Cladiri inteligente

Tabel 1.1. Industrii in care actioneaza dispozitivele de tip IoT [13]

Deoarece IoT este o industrie atat de promitatoare si in continua expansiune, aceasta a trezit interesul multor companii. In tabelul de mai jos sunt prezentate o lista de companii care au investit in viitorul acestei industrii.







Honeywell

Hitachi

T-Mobile

Comcast

GE

AT&T

Cisco

IBM

Amazon

Skyworks

Apple

Sierra Wireless

Google

Iridium Communications

Ambarella

ARM Holdings

Texas Instruments

PTC

Fitbit

ORBCOMM

Garmin

Blackrock

InvenSense

Microsoft

Control4

Silicon Laboratories

CalAmp

LogMeIn

InterDigital

Ruckus Wireless

Linear Technology

Red Hat

Nimble Storage

Silver Spring Networks

Zebra Technologies

Arrow Electronics

Tabel 1.2. Companii care actioneaza in interiorul Industriei IoT[13]
Datorita impactului pe care il are industria IoT pe piata, aceasta lista este mult mai mare si in continua expansiune, din aceste motive s-au enumerat doar o parte din companii. La fel ca si in tabelul numarul 1, companiile introduce in acest table nu dispun de o oridine anume si sunt introduse pur expositional.
2.3. Ce este Big Data?
Big Data este un set de date atat de voluminoase și complexe incat software-ul traditional de prelucrare a datelor nu este adecvat pentru a le rezolva. Provocarile majore ale Big Data includ captarea datelor, stocarea datelor, analiza datelor, cautarea, partajarea, transferul, vizualizarea, interogarea, actualizarea si confidentialitatea informatiilor.

Multa lume se intreaba daca nu cumva Big Data defapt o simpla analiza a datelor, intr-o oarecare masura exista si adevar in spatele acestor speculatii insa de asemenea exista si trei mari diferente:

Volumul de informatii - Incepand cu anul 2012, aproximativ 2,5 exabytes de date sunt create in fiecare zi, iar acest numar se dubleaza, aproximativ la fiecare 40 de luni. Mai multe date traverseaza internetul in fiecare secunda decat au fost stocate pe intregul internet acum 20 de ani [14].

Velocitatea - ritmul in care fluxul de date provine de la surse (ex: masinarii, retele, site-uri, dispositive mobile). Fluxul de date este masiv si continuu. Aceste date pot ajuta cercetatorii si intreprinderile in timp real, in luarea deciziilor valoroase care ofera avantaje competitive strategice si rentabilitatea investitiei [15].

Varietate – Big Data ia forma mesajelor, actualizarilor, imaginilor postate in fetelele sociale, date de la senzori, semnale GPS, etc. Cantitati enorme de informatii sunt stocate.

Deci, ca si o explicatie simplificata a procesului. Big Data colecteaza un volum mare de informatii si il analizeaza. Analiza acestor date se face intr-un timp foarte scurt si poate ajuta la luarea deciziilor (in timp real) intr-o companie inainte ca o problema sa fie existenta.


2.4. Industriile in care activeaza Big Data
In tabelul de mai jos sunt prezentate o parte din industriile in care Big Data Analytics activeaza. Deoarece acestea se confrunta zilnic cu un set de date voluminouse este de la sine inteleasa implicarea tehnologiei Big Data.





Securitate

Banci

Comunicatii,Media

Furnizori de Servicii medicale

Educatie

Fabricatie

Resurse naturale

Guvern

Asigurari

Vanzari produse

Transport

Energie si utilitati

Tabel 2.1 Industriile in care activeaza Big Data[16]

Luand in considerare cresterea rapida a informatiilor si nevoia de a o stoca si analiza, un numar mare de companii s-au implicat in crearea de noi tehnologii Big Data.

Ca si un exemplu, pentru a arata cantitatea de date stocate, in 2016 s-a estimat ca Google stocheaza in jur de 10-15 exabiti de informatii (data) , asta fara a lua in calcul alte companii mari care stocheaza zilnic un numar impresionant de date (ex: Amazon, IBM, Facebook).

Pe langa exemplele date ulterior, exista o multitudine de alte companii care sunt “data rich” ceea ce inseamna ca acestia au nevoie de o modalitate de stocare mai eficienta si mai rapida.

In tabelul de mai jos puteti sa observati o lista de companii.





Tableau

New Relic

Alation

Teradata

VMware

Splunk

IBM

Striim

SAP

Alpine Data Labs

Oracle

Alteryx

Splice Machine

Pentaho

SiSense

ThoughtWorks

Tibco Jaspersoft

Amazon Web Services

Microsoft

Google

Mu Sigma

HP Enterprise

Big Panda

Cogito

Datameer

Sojern

Quertle

Rocket Fuel Inc

Platfora

Sumo Logic

Medio

MapR

Flytxt

ZoomData

Ninja Metrics

SalesforcelQ

Tabelul 2.2 Companii care dezvolta si ofera servicii tip BigData Analytics[17]
2.5. De ce este Big Data important?
Analiza de date vaste (Big Data Analytics) ajuta organizatiile sa-si tina sub control un numar mare de date. Prin intermediul analizei acestor date, companiile pot fii ajutate in luarea deciziilor, in eficientizarea operatiilor, reducerea costurilor, profituri mai mari si desigur clienti mai fericiti.

1. Reducerea costurilor - Tehnologiile de tip Big Data (ex: Hadoop) si analiza datelor cloud-based aduc un avantaj foarte mare cand vine vorba de stocarea si analiza unui volum mare de informatii.

2. Decizii mai eficiente si mai rapide – Prin intermediul tehnlogoiei Hadoop, care detine capacitatea de a analiza noi surse de date, interprinderile sunt capabile sa analizeze informatiile rapid sis a scurteze perioada de luare a deciziilor.

3. Profituri mai mari – datorita reducerilor costurilor si eficientizarea procesului de luare a deciziilor este absolute normal ca profiturile sa fie in urcare.


Capitolul 3. Metodologia si Algoritmul propus in detectarea anomaliilor
Retelele IoT monitorizeaza un numar mare de senzori, in o multidudine de domenii (Transport, Securitate, Banci, etc.). Deoarece este o industrie in continua expansiune iar numarul de date inregistrate si procesate incepe sa devina din ce in ce mai mare, prelucrarea rapida a fluxurilor de date senzorice continua sa aduca provocari solutiilor traditionale de analizare a datelor si sunt solicitate noi abordari. In studiul lor Trilles et al (2017) [18], au venit cu o solutie, si anume au propus folosirea unei anume metodologii.

3.1 Metodologia analizei fluxurilor de date ale senzorilor
Metodologia propusa proceseaza fluxul de date in timp real, poate fi considerata flexibila si compatibila deoarece utilizeaza surse de date diferite, cu formaturi si interfate de conexiune diferite. De asemenea, permite procesarea unui numar mare de observatii obtinute in timp real de la senzor, permite aplicarea oricarui tip de analiza ,oferind rezultate cu ajutorul standardelor si diferite protocoale de conectare.
3.2 Layer-ul de continut (o alta denumire fiind si structura layer-ului)

Designul metodologiei este conceput pentru senzori de date. Astfel, poate fi aplicat la orice tip de fenomen, precum fenomene meteorologice (temperatura, presiune atmosferica, umiditate etc), calitatea aerului (dioxid de carbon, monoxid de carbon), sanatate (puls, presiune arteriala) sau Smart City (parcare Smart, iluminare Smart) etc. Fiecare senzor produce un flux cu observatii, ce pot fi ori de natura calitativa, ori cantitativa.



3.3 Layer-ul de servicii

Layer-ul de servicii este stratul intermediar intre prezentare si stocarea datelor. Ideea din spatele unui astfel de nivel este sa se dispuna de o arhitectura care sa poata sustine mai multe straturi de prezentare, cum ar fii, web, mobile, etc.

Services layer-ul se conecteaza la sursa senzorilor de date, analizeaza observatiile si ofera rezultatele. Pentru a obtine un flux pentru fiecare informatie, se deschid canale individuale. O componenta separata a sistemului este reprezentata de serviciul de mesaje in timp real (RMS), constituita dintr-un set de protocoale de comunicatie ce ofera posibilitatea accesului la date in timp real. Detalierea conexiunilor dintre senzori diferiti si transductia la un model de date standard cand este nevoie. Acetsi senzori diferiti pot suporta protocoale diferite de comunicare si interfate pentru a fi manageriate in timp real, astfel putand armoniza protocolatele pentru ca datele obtinute sa fie standardizate si folosite cu un singur mecanism de comunicare.Dupa aplicarea algoritmilor de procesare, rezultatele sunt oferite ca un flux de date dinamic prin reutilizarea RMS.

3.3.1 Serviciul de transmitere de date in timp real

Metodologia propusa gestioneaza observatiile aproape in timp real, adica noi valori ar trebui procesate imediat ce devin disponibile pe Internet. In mod traditional, resursele web sunt accesate de catre protocolul de transfer date catre un server, care apoi raspunde prin returnarea resurselor solicitate.

Aceasta procedura trebuie repetata de fiecare data cand clientul doreste sa acceseze resursa.

Atunci cand se ocupa de sursele de date cu cele mai ridicate rate de reimprospatare - cum ar fi pretul stocului sau datele senzorilor de mediu - serverul trebuie solicitat in mod constant pentru a ramane actualizat. Au fost elaborate tehnici mai eficace si mai eficiente pentru abordarea unor astfel de probleme. Ele se bazeaza pe mecanisme, in care clientul trimite in mod repetat noi cereri catre server. Daca serverul nu are date noi, atunci acesta trimite o indicatie adecvata si inchide conexiunea.

Sergio Trilles et al, aplica aceasta abordare pentru a transfera observatiile senzorilor in cadrul RMS. RMS este utilizat in diferite parti ale stratului de servicii, pentru a pregati fluxurile de senzori in fluxul de date al senzorilor (SDS). Acesta va fi reutilizat pentru a furniza rezultatele.

RMS poate fi realizat cu middleware orientat pe mesaje, cum ar fi, de exemplu, serviciul de mesaje Java (JMS) si ar trebui sa includa o intreagă serie de Message Brokers (Apache ActiveMQ, Apollo, HornetQ, Rabbit MQ, Kafka). Utilizarea unei astfel de suite de instrumente maximizeaza flexibilitatea in ceea ce priveste protocoalele suportate (adica posibilitatea de a schimba mesajele cu multe surse si utilizatori de date diverse) si mesajele transferate (adica sa inteleaga continutul multor surse de date si sa fie intelesi de catre mai multi utilizatori / clienti).



3.3.2 Fluxul de date al senzorilor
Componenta SDS ofera doua funcționalitati. In primul rand, SDS se conecteaza cu senzori diferiti pentru a obtine observatii. Deoarece cele mai multe WSN-uri disponibile publicului nu ofera acces standard la datele pe care le produc [20] procesele Extract, Transform si Load (ETL) traduc formatele originale non-standard de date la cele standard. Pentru a facilita aceasta lucrarea lor si pentru a reutiliza instrumentele existente, Sergio Trilles et al, au avut in vedere categorii de WSN-uri (wireless sensor network) in functie de formatele de date pe care le suporta: WSN structurat, WSN semistructurat si WSN nestructurat.

Procesul ETL are doua etape:

- prima etapa: conectorii surselor de date responsabil pentru extragerea datelor senzorilor din diferite surse de date.

- in a doua etapa, se aplica transformari standard pentru a obtine date senzor interoperabile. Un proces transforma fiecare observatie furnizata de o sursa non-standard la un format standard.

Pentru a accesa datele din surse care folosesc protocoale de comunicare diferite si codificari de mesaje, aplicam o abordare de broker la nivelul serviciului[111, 112]. Metodologia propua utilizeaza borker pentru a se conecta la RMS. Aceasta permite astfel utilizarea diferitelor instante RMS - fiecare dintre acestea ar putea functiona pe un protocol diferit.
3.3.3 Aplicarea algoritmilor
Metodologia prezentata permite efectuarea oricarui algoritm. Acesti algoritmi sunt codificati ca noduri diferite pentru a permite calcularea paralela. Iesirile (output) fiecarui nod pot fi transferate in nodurile ulterioare, permitand astfel interconectivitatea intre algoritmi sau fiind livrate ca iesire de sistem (system output). Algoritmii trebuie sa se adapteze la natura datelor furnizate de sursa de date inainte de a aplica etapa de analiza. Utilizarea standardelor pentru fluxurile senzorilor usureaza pregatirea datelor pentru analiza. In functie de tipul de analiza, algoritmul poate avea diferite tipuri de iesiri.
3.4 Layer-ul de aplicatie
Layer-ul de aplicatie consta in protocoale care se concentrează\a pe comunicarea proces-proces in cadrul unei retele IP si ofera o interfata de comunicare ferma si servicii pentru utilizatorii finali.

Pentru a crea clienti reutilizabili, layer-ul de aplicatie ofera o varietate de protocoale de comunicare si formate standard. Aceste caracteristici permit crearea de clienti care pot fi utilizati in diferite scenarii. Layer-ul de aplicatie se conecteaza cu aceasta parte finala a stratului de servicii si mai precis cu RMS.


3.5. Detactarea anomaliilor in timp real prin intermediul algoritmului CUSUM
De indata ce se detecteaza o anomalie, o notificare trebuie sa declanseze un proces de luare a deciziilor si sa informeze despre anomalia care a provocat evenimentul, impreună cu informatiile din contextul inconjurator. In multe cazuri, acest sprijin trebuie furnizat in timp real, deoarece luarea deciziilor este critica in timp.

In studiul lor Sergio Trilles et all, au selectat algoritmul CUSUM [23] (cumulative sum) pentru detectarea anomaliilor din seriile de date. Acest algoritm poate fi aplicat oricarei serii de valori si detecteaza anomalii în timp real. In esenta, compara doua instante diferite ale aceleiasi functii de probabilitate discrete pentru o serie de date.


3.6. Utilizari anterioarea ale algoritmului CUSUM
Algoritmul CUSUM a fost initial conceput pentru controlul proceselor industriale. In ultimii ani, a fost utilizat cu succes si in alte domenii. In studiul lui Osanaiye si Talabi [25] algoritmul este folosit pentru a detecta posibilele focare de epidemii. Grigg et al. (2003) [26] au folosit algoritmul pentru a analiza rata de mortalitate a pacientilor, in decurs de 30 de zile dupa o interventie chirurgicala cardiaca.

Jeske et al. (2009), [27] au dezvoltat doi algoritmi CUSUM pentru detectarea punctelor de schimbare pentru aplicatiile de monitorizare a retelelor de date. CUSUM a fost utilizata in plus in recunoasterea modelelor, in special in retelele neuronale. Chuen-Sheng [28] descrie o abordare alternativa pentru controlul proceselor statistice, utilizand tehnologia neuronala artificiala si compara performanta acesteia cu cea a schemelor combinate Shewhart-CUSUM. A mai fost deja utilizat cu succes pentru o serie de probleme de mediu [18], [20], [21], [22].


3.7. Descrierea algoritmului CUSUM
CUSUM considera un set de observatii (xi) cu observatia colectata i = 1, ..., n, unde n este numarul de puncte de date. Algoritmul presupune ca aceste observatii sunt controlate atunci cand colectia are o medie (μ) si varianta (σ2) pentru o perioada normala si urmand o distributie normala N (μ, σ2). Atunci cand procesul este in control, se poate obtine suma cumulata (Si) intr-un mod iterativ prin urmatoarea expresie:

(1)
unde S0 = 0, zi este variabila normala standard,

,
x¯ este media si s este abaterea standard a seriei de timp. Schimbarea in termeni (crestere, scadere) a procesului poate fi detectata, respectiv prin calcularea :

(2)
unde parametrul k este valoarea de referinta care trebuie aleasa in mod corespunzator.

Parametrul, k, este "slabirea" permisa in proces si este de obicei setat sa fie o jumatate din media dorita. Limitele de incredere (prag) specificate pentru diagramele de control CUSUM sunt hσx, unde h = 5 si σx este deviatia standard [24].

Atunci cand SHi sau SLi depasesc pragul, algoritmul detecteaza anomalii. Daca SHi depaseste pragul, anomalia va fi datorata cresterii si daca SLi este mai mare decat pragul, se va datora scaderii.

Doua caracteristici ale CUSUM limiteaza sensibilitatea rezultatelor. In primul rand, identificarea unui proces in afara controlului se bazeaza pe presupunerea ca citirile sunt statistice independente si urmeaza o distributie normala. In al doilea rand, masuratorile fenomenelor senzoriale pot avea anumite tendinte sezoniere si pe termen lung. Efectul este ca pragul poate sa nu fie ajustat.


4. Testarea sistemul de detectare al anomaliilor
In randurile ce urmeaza se va rezuma o tehnologie specifica pentru metodologia independenta de domeniu prezentata ulterior.

In studiul lor Trilles et al. (2017) demonstreaza conceptul metodologiei prin implementarea unui sistem de detectare a anomaliilor asupra datelor senzorilor de mediu.

In figura de mai jos (1) este realizata prezentarea tehnologica a conceptului pentru detectarea anomaliilor.

Fig 1. Prezentarea tehnologica a conceptului pentru detectarea anomaiilor.[18]


5. Concluzii
5.1. Concluzii Metodologie
Studiul a fost un succes, si Trilles et al.(2017) au introdus un domeniu independent de analiza a fluxurilor de date din retelele senzorilor, in timp real. Insa acesta se confrunta cu urmatoarea provocare.

Metodologia permite analiza fiecarei observatii fara defecte. Cu toate ca, sursa de date utilizate are rate de reimprospatare reduse, ar putea sa sara la rate de improspatare mai mari sau sa adauge surse de date in acelasi sistem.



5.2. Concluzii generale

In IoT nu exista standarde pentru partajarea si protejarea datelor, chiar daca se inregistreaza eforturi de standardizare, in general nu exista un standard pentru producatori de reglementare a securitatii IoT. Din cate este observabil fiecare afacere decide in mod independent ce controale de securitate vor fi utilizate.

Productia in masa a dispozitivelor IoT are loc zilnic pentru a raspunde cererii consumatorilor, dar graba de a implementa produse duce adesea la o lipsa de considerare de securitate in faza de proiectare. In cazul in care nu se incorporeaza securitatea in designul original, este vorba despre un risc considerabil pentru produse, care ar trebui sa contina securitate prin design, mau degraba decat solutii retrofitate.

In plus, multe dispositive IoT nu dispun de puterea de procesare sau de spatiul de stocare necesare pentru a gazdui software-ul de securitate al produsului final. Exista multe produse IoT care nu au capacitatea de actualizare a firmware-ului cu protectia de securitate, ceea de poate duce la probleme precum vulnerabilitati malware.

Din nefericire si Big Data se confrunta cu probleme de securitate la fel ca si dispozitivele IoT. Cele mai multe implementari Big Data nu fac decat sa distribuie task-uri uriase de procesare in mai multe sisteme pentru o analiza mai rapida. Hadoop este un exemplu binecunoscut de tehnologie open source care initial nu avea nici o securitate. Procesarea distribuita poate insemna mai putine date procesate de un singur system dar inseamna si mai multe sisteme in care problemele de securitate pot aparea.

Solutiile de extragere a datelor sunt foarte importante mediilor Big Data, din acest motiv, este deosebit de important sa se asigure ca sunt protejati impotriva amenintarilor externe.

In incheiere, IoT si Big Data se confrunta cu mari probleme de securitate, chiar daca creste viteza de analizare a datelor obtinute de catre senzori (ca si in metodologia prezentata mai sus), exista un mare risc ca datele sa fie alterate, copiate. Pe viitor consider ca ar fii mai importanta dezvoltarea acestei ramuri.
Deak Dan (RCSD)

Bibliografie:

[1] Sripan, M. Lin, X. Petchlorlean, P. Ketcham, M., “Research and Thinking of Smart Home Technology”, International Conference on System Electronic Engineering (ICSEE'2012) 18-19 dec., 2012, Phuket, Thailand

[2] Robles, R. J., & Kim, T., “Applications, Systems and Methods in Smart Home Technology: A Review”, International Journal of Advanced Science and Technology, Vol. 15, 2010.

[3] Redriksson, V., "What is a Smart Home or Building", 2005.

[4] Aldrich, F., “Smart Homes: Past, Present and Future, In: Inside the Smart Home”, Edited by Harper, R., Springer-Verlag, London, 2003, pp. 17-40.

[5] Khiyal, M. S. H., Khan, A., & Shehzadi, E., “SMS Based Wireless Home Appliance Control System (HACS) for Automating Appliances and Security”, Issues in Informing Science and Information Technology Volume 6, 2009.

[6] Kaur, I., “Microcontroller Based Home Automation System with Security”, International Journal of Advanced Computer Science and Applications (IJACSA), Vol. 1, No. 6, 2010.

[7] ElShafee, A. & Hamed, K. A., “Design and Implementation of a WiFi Based Home Automation System”, World Academy of Science, Engineering and Technology 68, 2012.

[8] Jin, C., “A Smart Home Networking Simulation for Energy Saving”, Master thesis, Carleton University, Canada. 2011.

[9] Hamed, B., “Design & Implementation of Smart House Control Using LabVIEW”, International Journal of Soft Computing and Engineering (IJSCE), Vol. 1, Issue 6, 2012.

[10] Schaefer, F. M and Kays, R, “A Wireless Multi-Channel Transmission System for Smart Home Applications”,

[11] https://iot-analytics.com/internet-of-things-definition/

[12] Chris Ip ,Hong Kong, “Are you ready to capture a once-in-a-lifetime value pool?”, IoT Conference 21 June 2016

[13] http://www.businessinsider.com/what-is-the-internet-of-things-definition-2016-8

[14] Andrew McAfee, Erik Brynjolfsson “Big Data:The Management Revolution Exploiting vast new flows of information can radically improve your company’s

Performance”

[15] Kevin Normandeau, “Beyond Volume, Variety and Velocity is the Issue of Big Data Veracity”

[16] https://www.simplilearn.com/big-data-applications-in-industries-article

[17] https://www.datamation.com/big-data/big-data-companies.html

[18] Sergio Trilles, Jaume I, Castelló de la Plana, “ A domain-independent methodology to analyze IoT data streams in real-time. A proof of concept implementation for anomaly detection from environmental data Institute of New Imaging Technologies” 2017

[19] Fremont Rider, “The Scholar and the Future of the Research Library” 1944

[20] Trilles, S., O. Belmonte, L. Diaz, and J. Huerta, “Mobile Access to Sensor Networks by Using GIS Standards and RESTful Services” 2014

[21] Buschmann, F., R. Meunier, H. Rohnert, and P. Sommerlad “Pattern-oriented Software Architecture, Volume 1: A System of Patterns” 1996

[22] Nativi, S., M. Craglia, and J. Pearlman,” The Brokering Approach for Multidisciplinary Interoperability: A Position Paper.” 2012

[23] Page, E. S. “Continuous Inspection Schemes.” 1954

[24] Barratt, B., R. Atkinson, H. R. Anderson, S. Beevers, F. Kelly, I. Mudway, and P. Wilkinson, “Investigation into the use of the CUSUM Technique in Identifying Changes in Mean Air Pollution Levels Following Introduction of a Traffic Management Scheme.” 2007

[25] Osanaiye, P., and C. Talabi.”On Some Non-Manufacturing Applications of Counted Data Cumulative Sum (CUSUM) Control Chart Schemes.” 1989

[26] Grigg, O., V. Farewell, and D. Spiegelhalter. “Use of Risk-Adjusted CUSUM and RSPRT charts for Monitoring in Medical Contexts.” 2003

[27] Jeske, D., V. Montes De Oca, W. Bischoff, and M. Marvasti. “Cusum Techniques for Timeslot Sequences with Applications to Network Surveillance” 2009

[28] Chuen-Sheng, C. “A Multi-Layer Neural Network Model for Detecting Changes in the Process Mean” 1995

[29] Cyril Cecchinel, Matthieu Jimenez, Sébastien Mosser, Michel Riveill “An Architecture to Support the Collection of Big Data in the Internet of Things” 2014

[30] Rob Kitchin, “The real-time city? Big data and smart urbanism” 2013

[31] DANIEL E. O’LEARY “‘BIG DATA’, THE ‘INTERNET OF THINGS’ AND THE ‘INTERNET OF SIGNS’“ 2013

[32] McKinsey Quarterly “Clouds, Big Data and Smart assets: Ten tech enabled business trends to watch”

[33] Matthew A. Waller and Stanley E. Fawcett “Data Science, Predictive Analytics, and Big Data: A Revolution That Will Transform Supply Chain Design and Management” 2013

[34] Flavio Bonomi, Rodolfo Milito, Jiang Zhu, Sateesh Addepalli, “Fog Computing and Its Role in the Internet of Things” 2012

[35] YUNCHUAN SUN, HOUBING SONG, ANTONIO J. JARA, RONGFANG BIE “Internet of Things and Big Data Analytics for Smart and Connected Communities” 2015

[36] Charith Perera, Rajiv Ranjan, Lizhe Wang, Samee U. Khan, Albert Y. Zomaya “

Privacy of Big Data in the Internet of Things Era” 2009

[37] John A. Stankovic, “Research Directions for the Internet of Things” 2014



[38] M. Mazhar Rathore , Anand Paul , Awais Ahmad , Suengmin Rho “Urban planning and building smart cities based on the internet of things using big data analytics” 2015
Yüklə 77,6 Kb.

Dostları ilə paylaş:




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin