proiect lanturi markov

23
PROGNOZA STRUCTURII UNOR FENOMENE UTILIZÂND LANŢURI MARKOV CAP.1 LANŢURI MARKOV 1.1. Definiţii: În lumea reală, există o multitudine de fenomene din diferite domenii cum ar fi management, economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesară parcurgerea aleatorie.De aceea, în studierea acestor fenomene se utilizează procesele stochastice. Marelui matematician rus Andrei Markov îi sunt datorate procesele care îi poartă numele şi care au deschis calea spre numeroase aplicaţii ale teoriei probabilităţilor şi în special a proceselor aleatoare. Proprietatea Markov care este aparent restrictivă, stipulând că probabilitatea unui eveniment prezent depinde numai de trecutul cel mai recent, permite ca în memoria recentă să fie înglobată întrega evoluţie istorică. În matematică, un proces Markov, sau un lanţ Markov, este un proces stochastic care are proprietatea că, dată fiind starea sa prezentă, stările viitoare sunt independente de cele trecute. Această proprietate se numeşte proprietatea Markov. Cu alte cuvinte, starea curentă a unui astfel de proces reţine toată informaţia despre întreaga evoluţie a procesului. Într-un proces Markov, la fiecare moment, sistemul îşi poate schimba sau păstra starea, în conformitate cu o anumită distribuţie de probabilitate. Schimbările de stare sunt numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a 1

Upload: picicu

Post on 26-Jun-2015

1.320 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Proiect Lanturi Markov

PROGNOZA STRUCTURII UNOR FENOMENE UTILIZÂND LANŢURI MARKOV

CAP.1 LANŢURI MARKOV

1.1. Definiţii:

În lumea reală, există o multitudine de fenomene din diferite domenii cum ar fi management,

economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesară parcurgerea

aleatorie.De aceea, în studierea acestor fenomene se utilizează procesele stochastice.

Marelui matematician rus Andrei Markov îi sunt datorate procesele care îi poartă numele

şi care au deschis calea spre numeroase aplicaţii ale teoriei probabilităţilor şi în special a

proceselor aleatoare. Proprietatea Markov care este aparent restrictivă, stipulând că probabilitatea

unui eveniment prezent depinde numai de trecutul cel mai recent, permite ca în memoria recentă

să fie înglobată întrega evoluţie istorică. În matematică, un proces Markov, sau un lanț

Markov, este un proces stochastic care are proprietatea că, dată fiind starea sa prezentă, stările

viitoare sunt independente de cele trecute. Această proprietate se numește proprietatea Markov.

Cu alte cuvinte, starea curentă a unui astfel de proces reține toată informația despre întreaga

evoluție a procesului. Într-un proces Markov, la fiecare moment, sistemul își poate schimba sau

păstra starea, în conformitate cu o anumită distribuție de probabilitate. Schimbările de stare sunt

numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor

unui graf, tranzițiile fiind trecerea de la un nod la unul din succesorii săi, cu probabilitate egală,

indiferent de nodurile parcurse până în acel moment.

Definiţia 1. Se numeşte proces stochastic un experiment aleator care constă dintr-o suită de

subexperimente aleatoare. O clasă specială de astfel de procese este reprezentată de lanţurile Markov.

Multe experimente aleatoare se desfăşoară în etape. De aceea, un astfel de experiment

poate fi considerat ca fiind o secvenţă de subexperimente şi fiecare rezultat al experimentului

este determinat de rezultatele subexperimentelor (în ordine).

Aşadar, un proces stochastic este o mulţime indexată de variabile aleatoare, {Xt}, unde t

parcurge o mulţime T numită mulţimea indicilor pozitivi T = N, iar Xt reprezintă o caracteristică

cantitativă sau calitativă a sistemului cercetat.

1

Page 2: Proiect Lanturi Markov

Avem o succesiune de experimente cu aceleaşi rezultate posibile. Prin urmare, se va

considera că t este un moment de timp care ia valorile 1, 2, 3, …, n. Această succesiune redă

secvenţa de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, …, m (m

- număr finit). Cele m rezultate posibile vor fi numite stările în care se poate afla sistemul la un

moment dat. Unitatea de măsură pentru momentele de timp succesive t depinde de sistemul

studiat.

Dintre tipurile de astfel de secvenţe îl putem menţiona pe acela în care probabilităţile

rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de

exemplu: aruncarea repetată a unui zar, extragerile unei bile din urnă cu revenire).

Un alt tip de secvenţă este acela în care probabilităţile rezultatelor la un moment dat

depind de rezultatele din experienţele anterioare (de exemplu: extragerile succesive din urnă fără

revenire). În cazul acestui din urmă tip de experiment se pot distinge două subcazuri extreme:

O extremă e reprezentată de faptul că probabilităţile rezultatelor la un moment dat

depind de rezultatele tuturor experimentelor precedente din secvenţă;

cealaltă extremă a nivelului de dependenţă este atunci când probabilităţile rezultatelor la

un moment dat depind doar de rezultatele experimentului precedent. În această situaţie

secvenţa de experimente se numeşte proces (lanţ) Markov.

Definiţia 2. Un proces Markov sau lanţ Markov este o succesiune de experimente în care fiecare

experiment are m rezultate posibile E1, E2,…,Em, iar probabilitatea fiecărui rezultat depinde doar

de rezultatul experimentului precedent.

Definiţia 3. Se spune că un proces stochastic are proprietatea lui Markov dacă este îndeplinită

egalitatea:

P(Xt+1= j/X1 = k1, …, Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i),

pentru t =1, 2, …,n şi pentru orice succesiune k1, k2, …kt-1, i, j de stări din mulţimea celor m

stări posibile ale sistemului.

Fie 2 evenimente, A şi B.Notăm P(A/B) – probabilitatea evenimentului A condiţionată de

evenimentul B.

2

Page 3: Proiect Lanturi Markov

Proprietatea lui Markov arată faptul că probabilitatea condiţionată a oricărui eveniment

viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, …, Xt-1 = kt-1 şi starea prezentă Xt = i, este

independentă de stările trecute şi depinde doar de starea prezentă a procesului.

Există o largă varietate de fenomene care sugerează o comportare în maniera unui proces

Markov. Ca şi exemple, am redat următoarele situaţii:

probabilitatea ca o persoană să cumpere un produs de o anumită marcă (detergent, bere,

cosmetice, încălţăminte etc.) poate depinde de marca aleasă la cumpărătura precedentă;

probabilitatea ca o persoană să aibă cazier poate depinde de faptul că părinţii au avut sau nu

cazier;

probabilitatea ca starea de sănătate a unui pacient să se îmbunătăţească, să se înrăutăţească

sau să rămână stabilă într-o zi poate depinde de ceea ce s-a întâmplat în ziua precedentă.

Evoluţia unui proces Markov poate fi descrisă prin intermediul unei matrice.

Matricea de tranziţie este un instrument foarte eficient pentru reprezentarea

comportamentului unui proces Markov.

Definiţia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, …, Em.

Forma generală a unei matrici de tranziţie pentru acest gen de experimente are forma:

Starea Viitoare

Starea Curentă =P

O dată cu modelarea sistemului, acesta poate fi în una din cele m stări curente posibile. O

stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla

în una din cele m stări.

Matricea de tranziţie este formata din elemente p ij care reprezinta probabilitatea

conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j.

Observaţii

3

Page 4: Proiect Lanturi Markov

1. Pij cu i = j reprezintă probabilitatea ca sistemul să rămână în aceeaşi stare după efectuarea

experimentului, iar Pij cu i ≠ j reprezintă probabilitatea ca sistemul să treacă dintr-o stare în

alta.

2. Matricea de tranziţie este o matrice pătratică de ordin m.

Proprietăţi

Elementele matricei de tranziţie trebuie să satisfacă următoarele:

1. 0 ≤ pij ≤ 1, i,j = 1,…,m (pentru că este vorba de probabilităţi),

2. , i=1,2,…m. Suma pe linie trebuie să dea 1 pentru că E1, E2,…Em este un sistem

complet de evenimente.

Proprietatea 2 asigură că, dată fiind o stare curentă i a sistemului, sistemul va trece cu

siguranţă într-o stare j din cele m posibile după efectuarea experimentului.

1.2. Proprietăţi de bază ale lanţurilor Markov

Informaţiile despre tranziţiile de la o stare la alta în cadrul unui lanţ Markov pot fi

reprezentate prin matricea de tranziţie (într-un pas). Ea este formată din elementele pij -

probabilitatea de trecere într-un pas de la starea i la starea j (i, j = 1, 2, …, m). Se poate vorbi,

atunci, şi de probabilităţile de tranziţie în exact k paşi şi de o matrice formată din acestea.

Se vor face următoarele notaţii:

pij(k) - probabilitatea condiţionată de efectuare a tranziţiei din starea i în starea j în exact k

paşi.

P(k) - matricea de tranziţie în k paşi.

Teorema 1.

Fie P matricea de tranziţie într-un pas a unui lanţ Markov. Atunci, matricea P(k) de tranziţie în k

paşi este:

P(k)=P∙P∙….∙P=Pk

de k ori

Relaţia din teorema 1 exprimă o proprietate de bază a lanţurilor Markov prin care

acestea se deosebesc de alte procese stochastice.

4

Page 5: Proiect Lanturi Markov

Conform proprietăţii 2 a matricei de tranziţie P, suma probabilităţilor de pe fiecare linie a

acesteia trebuie să dea 1. Această proprietate rămâne valabilă şi în cazul matricei de tranziţie în

k paşi P(k) = Pk.

Un vector poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice coloană

vector coloană).

Definiţia 5. Un vector linie (q1, q2, …, qn) care are proprietăţile

a) 0≤qi≤1

b) =1

se numeşte vector de probabilitate sau vector stochastic.

O matrice ale cărei linii sunt vectori stochastici se numeşte matrice stochastică.

Rezultă că fiecare linie a matricei de tranziţie P este un vector de probabilitate. Acelaşi

lucru se poate spune şi despre liniile matricei de tranziţie în k paşi P(k) = Pk. De asemenea,

matricele P şi Pk sunt matrice stochastice.

1.3. Lanţuri Markov regulate

Deoarece lanţurile Markov sunt procese stochastice, nu se poate şti cu exactitate ce se

întâmplă în fiecare stare; de aceea, sistemul trebuie descris în termeni de probabilitate.

Definiţia 6. Fie un lanţ Markov cu m stări. Un vector de stare pentru lanţul Markov este un

vector de probabilitate X = şx1 x2 … xnţ . Coordonatele xi ale vectorului de stare X trebuie

interpretate ca probabilitatea ca sistemul să se afle în starea i.

Atunci când se ştie cu siguranţă că sistemul este într-o anumită stare, vectorul de stare are

o formă particulară. Astfel, dacă se ştie sigur că sistemul este în starea a i-a, vectorul de stare va

avea a i-a componentă egală cu 1, iar restul 0. X = [0 0 0 … i … 0].

Comportamentul unui lanţ Markov poate fi descris printr-o secvenţă de vectori de stare.

Starea iniţială a sistemului poate fi descrisă printr-un vector de stare notat X0 . După o tranziţie

sistemul poate fi descris printr-un vector X1, iar după k tranziţii, prin vectorul de stare Xk. Relaţia

dintre aceşti vectori poate fi sumarizată prin următoarea teoremă:

Teorema 2.

5

Page 6: Proiect Lanturi Markov

Fie un proces Markov cu matricea de tranziţie P. Dacă Xk şi Xk+1 sunt vectori de stare care

descriu un procesul după k şi k+1 tranziţii, respectiv, atunci

În particular:

Deci, vectorul de stare Xk care descrie sistemul după k tranziţii e produsul între vectorul

stării iniţiale X0 şi matricea Pk.

Observaţie. X0, X1, X2, …Xk, … sunt toţi vectori linie 1 × m.

Dacă interesează studierea unui proces stochastic după un număr mare de tranziţii, atunci

este utilă studierea comportării generale a acestuia pe termen lung. Pentru anumite tipuri de

lanţuri Markov acest lucru este posibil.

În general pentru un lanţ Markov cu m stări, posibilitatea ca sistemul să se afle în starea j

după k tranziţii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul

să fie în starea j după k tranziţii dacă iniţial se află în starea 1. Semnificaţii similare avem

pentru p2j(k), …, pmj(k). Nu există nici un motiv ca aceste probabilităţi să fie (sau să ne aşteptăm

să devină) egale. Dar, pentru anumite lanţuri Markov există o probabilitate strict pozitivă qj

asociată cu starea j astfel încât după k tranziţii probabilităţile pij(k) devin, toate, foarte apropiate

de qj.Cu alte cuvinte, speranţa ca sistemul să ajungă în starea j după k tranziţii (unde k este

suficient de mare) este cam aceeaşi, indiferent de starea din care se pleacă.

Lanţurile Markov care au o astfel de comportare pe termen lung formează o clasă aparte

care este definită după cum urmează.

Definiţia 7. Un lanţ Markov cu matricea de tranziţie P se numeşte regulat dacă există un întreg k

pozitiv astfel încât Pk să aibă toate elementele strict pozitive.

CAP. 2 ALGORITM DE REZOLVARE A UNUI FENOMEN REDAT PRIN

LANŢUL MARKOV

6

Page 7: Proiect Lanturi Markov

Elementele structurale pot fi reprezentate printr-un vector St'=[ st

1 , .. . sti , .. . st

m ] , care pentru

fiecare t=1 , n şi pentru fiecare i=1 , m, st

i variază între 0 şi 1, iar suma elementelor structurale

este 1, pentru orice t.

Etape:

1. Se vor calcula diferenţele de ordinul întâi ale vectorului St astfel:

ΔSt / t−1=St−S t−1 .

Elementele structurale ale fiecărui vector diferenţă ΔSt / t−1 au proprietatea că suma valorilor

pozitive este egală cu suma absolută a valorilor negative.

2. În etapa a doua, matricile de trecere parţiale sunt construite pentru fiecare pereche de

perioade consecutive de timp, t/t-1. Matricele de trecere sunt matrice pătratice de forma

MTPt / t−1 (m×m ) , unde elementele de pe diagonala principală sunt date de relaţia:

mtp t / t−1ii =min (st−1

i , sti ) , i=1 , m . Celelalte elemente, care nu se află pe diagonala principală,

sunt obţinute prin relaţia:

mtp t / t−1ij =Δst / t−1

i ×Δst / t−1

j

∑i=1

m+Δst / t−1

ij

, unde Δst / t+1i

este negativă, iar Δst / t−1j

este pozitivă. În această formulă ∑i=1

m+Δst / t−1

ij

este suma valorilor pozitive ale vectorului

diferenţă ΔSt / t−1 . Sintetic, elementele matricii MTPt / t−1 (m×m ) pot fi determinate astfel:

mtp t / t−1ij =¿ {min (st−1

i , stj) , daca i= j ¿ {|Δst / t−1

i ×Δst /t−1

j

∑i=2

m+Δs

ijt / t−1

|, dacă i≠ j şi Δst / t−1i <0 şi Δst / t−1

j >0¿ ¿¿¿

i , j=1 ,m

3. Matricea de trecere totală MTT (m×m ) se determină prin însumarea elementelor matricilor

parţiale de trecere:

7

Page 8: Proiect Lanturi Markov

mtt ij=∑t=2

mmtpt / t−1

ij

4. Matricea probabilităţilor de trecere MP (m×m) se calculează prin raportarea fiecărui

element al matricii de trecere totală la suma liniei pe care se află respectivul element:

mpij= mttij

∑ j=2

mmttij

5. În ultima etapă a algoritmului se obţine prognoza elementelor structurale pentru p perioade

viitoare prin multiplicarea transpusei matricii MP (m×m) , ridicată la puterea k, cu vectorul

elementelor structurale pentru ultima perioadă: Sn+ p=( MP' ) p×Sn .

În continuare se va realiza un studiu de caz ce presupune prognozarea numărului

de produse vândute de către cele mai mari companii de telefonie mobilă, pe piaţa din România,

pe baza datelor din ultima perioadă. Prognozare care se va baza pe utilizarea lanţurilor Markov.

S-a observat faptul că alegerea unei anumite mărci este influenţată de ultima opţiune pe care

consumatorul a ales-o.

Pentru obţinerea rezultelor dorite se vor urmări cele cinci etape enunţate anterior, etape în

care pentru realizarea calculelor ne vom folosi de programul Matlab.

Vectorul stărilor în acestă analiză este:

S = {Nokia, Samsung, LG, Sony Ericsson, HTC, Alcatel, Motorola, Blackberry, Apple}

În următorul tabel se dă evoluţia istorică a numărului unităţi vândute pentru fiecare

companie în parte:

FIRMA

PRODUCĂTOARE

Numărul de

produse

vândute în 2008

[sute]

Numărul de

produse

vândute în

2009 [sute]

Numărul de

produse

vândute în

2010 [sute]

Total

NOKIA 322 357 365 1044

SAMSUNG 1554 1529 1236 4319

8

Page 9: Proiect Lanturi Markov

LG 651 671 558 1880

SONY ERICSSON 1298 1493 1463 4254

HTC 1283 1216 901 3400

ALCATEL 665 655 551 1871

MOTOROLA 393 382 314 1089

BLACKBERRY 768 826 696 2290

APPLE 2031 1984 1459 5474

1. Abateri: ΔS2009 /2008=S2009−S2008

FIRMA N S LG SE HTC AL MOT BB APP Suma

2009 357 1529 671 1493 1216 655 382 826 1984

2008 322 1554 651 1298 1283 665 393 768 2031

Abatere 35 -25 20 195 -67 -10 -11 58 -47

Abatere + 35 20 195 58 308

Abateri: ΔS2010 /2009=S2010−S2009

FIRMA N S LG SE HTC AL MOT BB APP Suma

2010 365 1236 558 1463 901 551 314 696 1459

2009 357 1529 671 1493 1216 655 382 826 1984

Abatere 8 -293 -113 -30 -315 -104 -68 -130 -525

Abatere + 8 8

2. În continuare se vor calcula matricile de trecere de la un an la altul:

Matricea de trecere din anul 2008 în anul 2009:

TR2009/ 2008 (m×m )

9

Page 10: Proiect Lanturi Markov

- elementele de pe diagonala principală vor fi: min (S2008i , S2009

i )

- atunci când i≠ j , ∆ S2009/2008i <0 şi ∆ S2009/2008

j >0, elementul din matrice va fi egal cu valoare

absolută din : ∆S2009/2008

i ∗∆ S2009/2008j

∑∆ S2009/2008ij >0

- iar în rest elementele vor fie gale cu 0.

FIRMA N S LG SE HTC AL MOT BB APP

N 322 0 0 0 0 0 0 0 0

S 2.8409 1529 1.6233 15.8279 0 0 0 4.7077 0

LG 0 0 651 0 0 0 0 0 0

SE 0 0 0 1298 0 0 0 0 0

HTC 7.6136 0 4.3506 42.4188 1216 0 0 12.6168 0

AL 1.1363 0 0.6493 6.3311 0 655 0 1.8831 0

M 1.25 0 0.7142 6.9642 0 0 382 2.0714 0

BB 0 0 0 0 0 0 0 768 0

APP 5.3409 0 3.0519 29.7564 0 0 0 8.8506 1459

Matricea de trecere din anul 2009 în anul 2010:

TR2010/ 2009 (m×m )

- elementele de pe diagonala principală vor fi: min (S2010i , S2009

i )

- atunci când i≠ j , ∆ S2010/2009i <0 şi ∆ S2010/2009

j >0, elementul din matrice va fi egal cu valoare

absolută din : ∆S2010/2009

i ∗∆ S2010/2009j

∑∆ S2010/2009ij >0

- iar în rest elementele vor fie gale cu 0.

FIRMA N S LG SE HTC AL MOT BB APP

N 357 0 0 0 0 0 0 0 0

10

Page 11: Proiect Lanturi Markov

S 293 1236 0 0 0 0 0 0 0

LG 113 0 558 0 0 0 0 0 0

SE 30 0 0 1463 0 0 0 0 0

HTC 315 0 0 0 901 0 0 0 0

AL 104 0 0 0 0 551 0 0 0

M 68 0 0 0 0 0 314 0 0

BB 130 0 0 0 0 0 0 696 0

APP 525 0 0 0 0 0 0 0 1459

3. În cea de a treia etapă se va calcula matricea de trecere totală, care reprezintă suma

matricilor de trecere parţiale calculate în etapa anterioară.

FIRMA N S LG SE HTC AL MOT BB APP Total

N 679 0 0 0 0 0 0 0 0 679

S 295.8 2765 1.6 15.8 0 0 0 4.7 0 3082.9

LG 113 0 1209 0 0 0 0 0 0 1322

SE 30 0 0 2761 0 0 0 0 0 2791

HTC 322.6 0 4.4 42.4 2117 0 0 12.6 0 2499

AL 105.1 0 0.6 6.3 0 1206 0 1.9 0 1319.9

M 69.3 0 0.7 7 0 0 696 2.1 0 775.1

BB 130 0 0 0 0 0 0 1464 0 1594

APP 530.3 0 3.1 29.8 0 0 0 8.9 2918 3490.1

4. În cea de a patra etapă se calculează matricea probabilităţilor de trecere prin raportarea fiecărui

element al matricii de trecere totală la suma liniei pe care se află respectivul element:

FIRMA N S LG SE HTC AL MOT BB APP

N 1 0 0 0 0 0 0 0 0

S 0.095 0.9 0 0 0 0 0 0 0

LG 0.085 0 0.91 0 0 0 0 0 0

SE 0.010 0 0 0.989 0 0 0 0 0

HTC 0.129 0 0.001 0.016 0.84 0 0 0.005 0

AL 0.079 0 0 0.004 0 0.9 0 0.001 0

11

Page 12: Proiect Lanturi Markov

1

M 0.089 0 0 0.009 0 0 0.89 0.002 0

BB 0.081 0 0 0 0 0 0 0.91 0

APP 0.15 0 0 0.008 0 0 0 0.002 0.83

Probabilităţile de tranziţie sunt între cele nouă opţiuni sunt următoarele:

FIRM

A

N S LG SE HTC AL MOT BB APP Total

N 100% 0 0 0 0 0 0 0 0 100%

S 9.59% 90% 0.0005% 0.0051% 0 0 0 0.0015% 0 100%

LG 8.54% 0 91.46% 0 0 0 0 0 0 100%

SE 1.07% 0 0 98.93% 0 0 0 0 0 100%

HTC 12.91% 0 0.17% 1.69% 84.71% 0 0 0.5% 0 100%

AL 7.96% 0 0.0004% 0.47% 0 91.37% 0 0.14% 0 100%

M 8.94% 0 0.0009% 0.90% 0 0 89.79% 0.26% 0 100%

BB 8.1% 0 0 0 0 0 0 91.9% 0 100%

APP 15.19% 0 0.0008% 0.85% 0 0 0 0.25% 83.6% 100%

Valorile de pe diagonala principală reprezintă probabilităţile ca consumatorul să opteze

pentru aceeaşi marcă de telefon mobil.

5. În ultima etapă a algoritmului se obţine prognoza elementelor structurale pentru

anul 2011 prin multiplicarea transpusei matricii probabilităţilor de trecere, cu vectorul

elementelor structurale pentru ultima perioadă, şi anume vectorul corespunzător anului 2010.

Matricea de trecere totală reprezintă doar preferinţa actuală şi imediat următoare a

cumpărătorilor pentru o anumită marcă de telefon mobil.

FIRMA N S LG SE HTC AL MOT BB APP

N 1 0 0 0 0 0 0 0 0

S 0.095 0.9 0 0 0 0 0 0 0

12

Page 13: Proiect Lanturi Markov

LG 0.085 0 0.91 0 0 0 0 0 0

SE 0.010 0 0 0.989 0 0 0 0 0

HTC 0.129 0 0.001 0.016 0.84 0 0 0.005 0

AL 0.079 0 0 0.004 0 0.9

1

0 0.001 0

M 0.089 0 0 0.009 0 0 0.89 0.002 0

BB 0.081 0 0 0 0 0 0 0.91 0

APP 0.15 0 0 0.008 0 0 0 0.002 0.83

FIRMA Numărul de produse

vândute în anul 2010

[sute]

N 365

S 1236

LG 558

SE 1463

HTC 901

AL 551

M 314

BB 696

APP 1459

Prognoza privind numărul de produse din anul 2011 se obţine înmulţind cele două matrici

de mai sus şi este prezentată în tabelul următor:

FIRMA Numărul de produse

prognozate pentru

anul 2011 [sute]

N 365

S 1147

LG 542

13

Page 14: Proiect Lanturi Markov

SE 1451

HTC 840

AL 540

M 331

BB 669

APP 1289

CAP. 3 CONCLUZII

Deşi utilizarea lanţurilor Markov reprezintă o modalitate destul de satisfăcătoare în

previzionarea alegerii unei anumite mărci de către consumatori, acest model are câteva limitări:

Consumatorii nu cumpără întotdeauna produse în aceleaşi intervale şi nu cumpără

întotdeauna aceeaşi cantitate de produse. Aceasta înseamnă că în viitor două sau mai

multe mărci pot fi cumpărate în acelaşi timp;

Consumatorii întotdeauna pătrund sau părăsesc anumite pieţe şi de aceea pieţele nu sunt

niciodată stabile;

Probabiliţăţile de tranziţie ca un consummator să treacă de la o marca i la o marcă j, nu

sunt constante pentru toţi cumpărătorii, aceste probabilităţi se pot schimba de la

cumpărător la cumpărător şi din timp în timp. Aceste probabilităţi se pot schimba în

acord cu media de timp dintre situaţile de cumpărare;

Timpul între diferite situaţii de cumpărare poate fi o funcţie a ultimei mărci cumpărate;

Celelalte ramuri din mediul de marketing precum promovarea, reclama, concurenţa etc.

nu au fost incluse în acest model.

14

Page 15: Proiect Lanturi Markov

Bibliografie:

1. Negrea Romeo: Material curs “Modelare statistică şi Stohastică”, Universitatea Politehnica

din Timişoara, 2010.

2. Ariadna Lucia, Pletea Liliana Popa: “Teoria Probabilităţii”, Universitatea Tehnică “Gh.

Asachi”, Iaşi, 1999.

3. Phillip E. Pfeifer and Robert L. Carraway: “Modeling customer relationships as markov

chains”, Journal of Interactive Marketing, 14(2), Spring 2000, 43-55.

4. http://facultate.regielive.ro/proiecte/matematica/lantul_markov-141286.html

5. http://facultate.regielive.ro/cursuri/economie/previziune_economica-6297.html

15

Page 16: Proiect Lanturi Markov

6. http://ro.wikipedia.org/wiki/Lan%C8%9B_Markov

7. Cenuşa Gheorghe: “Teoria Probabilităţilor”, Bilbioteca digitală ASE.

8. Uslu Aypar et. al.: “Analysis of Brand Loyalty with Markov Chains ”, School of

Economic And Administrative Science

16