Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Processus de Poisson composé — Wikipédia
Processus de Poisson composé — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.

Un processus de Poisson composé, nommé d'après le mathématicien français Siméon Denis Poisson, est un processus stochastique en temps continu à droite limité à gauche (Càdlàg). C'est en particulier un processus de Lévy.

Définition

[modifier | modifier le code]

Un processus de Poisson composé est un processus aléatoire indexé par le temps qui s’écrit Z t = ∑ n = 1 N t Y n {\displaystyle Z_{t}=\sum _{n=1}^{N_{t}}Y_{n}} {\displaystyle Z_{t}=\sum _{n=1}^{N_{t}}Y_{n}} où ( N t ) t ∈ [ 0 , + ∞ [ {\displaystyle (N_{t})_{t\in [0,+\infty [}} {\displaystyle (N_{t})_{t\in [0,+\infty [}} est un processus de Poisson et ( Y i ) i ∈ N {\displaystyle (Y_{i})_{i\in \mathbb {N} }} {\displaystyle (Y_{i})_{i\in \mathbb {N} }} est une suite de variables aléatoires indépendantes et identiquement distribuées et indépendantes de ( N t ) {\displaystyle (N_{t})} {\displaystyle (N_{t})}.

Propriétés

[modifier | modifier le code]

Accroissements

[modifier | modifier le code]

Comme tout processus de Lévy, le processus de Poisson composé est à accroissements indépendants et à accroissements stationnaires. De plus, les lois de ses accroissements sont infiniment divisibles.

Moments

[modifier | modifier le code]

Espérance

[modifier | modifier le code]

Moment d'ordre 1 —  Si Y 1 {\displaystyle Y_{1}} {\displaystyle Y_{1}} admet un moment d'ordre 1, alors pour tout t ∈ [ 0 , + ∞ [ {\displaystyle t\in [0,+\infty [} {\displaystyle t\in [0,+\infty [} la variable aléatoire Z t {\displaystyle Z_{t}} {\displaystyle Z_{t}} possède un moment d'ordre 1 et

E ( Z t ) = λ t E ( Y 1 ) , {\displaystyle \mathbb {E} (Z_{t})=\lambda t\mathbb {E} (Y_{1}),} {\displaystyle \mathbb {E} (Z_{t})=\lambda t\mathbb {E} (Y_{1}),}
où λ {\displaystyle \lambda } {\displaystyle \lambda } est l'intensité du processus de Poisson ( N t ) t ∈ [ 0 , + ∞ [ {\displaystyle (N_{t})_{t\in [0,+\infty [}} {\displaystyle (N_{t})_{t\in [0,+\infty [}}.


Démonstration

Fixons t {\displaystyle t} {\displaystyle t} et montrons que Z t {\displaystyle Z_{t}} {\displaystyle Z_{t}} est intégrable.

E ( | Z t | ) = ∑ n ≥ 1 ∫ 1 1 N t = n | ∑ k = 1 n Y k | d P ≤ ∑ n ≥ 1 E ( 1 1 N t = n ∑ k = 1 n | Y k | ) {\displaystyle \mathbb {E} (|Z_{t}|)=\sum _{n\geq 1}\int 1\!\!1_{N_{t}=n}\left|\sum _{k=1}^{n}Y_{k}\right|d\mathbb {P} \leq \sum _{n\geq 1}\mathbb {E} \left(1\!\!1_{N_{t}=n}\sum _{k=1}^{n}|Y_{k}|\right)} {\displaystyle \mathbb {E} (|Z_{t}|)=\sum _{n\geq 1}\int 1\!\!1_{N_{t}=n}\left|\sum _{k=1}^{n}Y_{k}\right|d\mathbb {P} \leq \sum _{n\geq 1}\mathbb {E} \left(1\!\!1_{N_{t}=n}\sum _{k=1}^{n}|Y_{k}|\right)}.

Mais 1 1 N t = n {\displaystyle 1\!\!1_{N_{t}=n}} {\displaystyle 1\!\!1_{N_{t}=n}} et ∑ k = 1 n | Y k | {\displaystyle \sum _{k=1}^{n}|Y_{k}|} {\displaystyle \sum _{k=1}^{n}|Y_{k}|} sont indépendants, d'où

E ( | Z t | ) ≤ ∑ n ≥ 1 P ( N t = n ) E ( ∑ k = 1 n | Y k | ) ≤ ∑ n ≥ 1 P ( N t = n ) n E ( | Y 1 | ) ≤ E ( N t ) E ( | Y 1 | ) {\displaystyle \mathbb {E} (|Z_{t}|)\leq \sum _{n\geq 1}\mathbb {P} (N_{t}=n)\mathbb {E} \left(\sum _{k=1}^{n}|Y_{k}|\right)\leq \sum _{n\geq 1}\mathbb {P} (N_{t}=n)n\mathbb {E} (|Y_{1}|)\leq \mathbb {E} (N_{t})\mathbb {E} (|Y_{1}|)} {\displaystyle \mathbb {E} (|Z_{t}|)\leq \sum _{n\geq 1}\mathbb {P} (N_{t}=n)\mathbb {E} \left(\sum _{k=1}^{n}|Y_{k}|\right)\leq \sum _{n\geq 1}\mathbb {P} (N_{t}=n)n\mathbb {E} (|Y_{1}|)\leq \mathbb {E} (N_{t})\mathbb {E} (|Y_{1}|)}.

Or N t {\displaystyle N_{t}} {\displaystyle N_{t}} suit une loi de Poisson de paramètre λ t {\displaystyle \lambda t} {\displaystyle \lambda t}, d'où E ( | Z t | ) < λ t E ( | Y 1 | ) < + ∞ {\displaystyle \mathbb {E} (|Z_{t}|)<\lambda t\mathbb {E} (|Y_{1}|)<+\infty } {\displaystyle \mathbb {E} (|Z_{t}|)<\lambda t\mathbb {E} (|Y_{1}|)<+\infty }.

De la même façon et en utilisant le Théorème de convergence dominée, on peut montrer cette fois que E ( Z t ) = λ t E ( Y 1 ) {\displaystyle \mathbb {E} (Z_{t})=\lambda t\mathbb {E} (Y_{1})} {\displaystyle \mathbb {E} (Z_{t})=\lambda t\mathbb {E} (Y_{1})}.


Variance

[modifier | modifier le code]

Variance —  Si Y 1 {\displaystyle Y_{1}} {\displaystyle Y_{1}} admet un moment d'ordre 2, alors pour tout t {\displaystyle t} {\displaystyle t}, Z t {\displaystyle Z_{t}} {\displaystyle Z_{t}} admet un moment d'ordre 2 et on a

V a r ( Z t ) = λ t E ( Y 1 2 ) {\displaystyle \mathrm {Var} (Z_{t})=\lambda t\mathbb {E} (Y_{1}^{2})} {\displaystyle \mathrm {Var} (Z_{t})=\lambda t\mathbb {E} (Y_{1}^{2})}.
Démonstration

Fixons t {\displaystyle t} {\displaystyle t}. On conditionne par le système complet d'événements { N t = n } {\displaystyle \{N_{t}=n\}} {\displaystyle \{N_{t}=n\}} pour montre que Z t {\displaystyle Z_{t}} {\displaystyle Z_{t}} possède un moment d'ordre 2.

E ( | Z t | 2 ) = ∑ n ≥ 1 E ( | ∑ k = 1 N t Y k | 2 | N t = n ) P ( N t = n ) {\displaystyle \mathbb {E} (|Z_{t}|^{2})=\sum _{n\geq 1}\mathbb {E} \left(\left|\sum _{k=1}^{N_{t}}Y_{k}\right|^{2}\,{\bigg |}N_{t}=n\right)\mathbb {P} (N_{t}=n)} {\displaystyle \mathbb {E} (|Z_{t}|^{2})=\sum _{n\geq 1}\mathbb {E} \left(\left|\sum _{k=1}^{N_{t}}Y_{k}\right|^{2}\,{\bigg |}N_{t}=n\right)\mathbb {P} (N_{t}=n)}.

Par indépendance de processus ( N t ) t {\displaystyle (N_{t})_{t}} {\displaystyle (N_{t})_{t}} avec la suite ( Y i ) i {\displaystyle (Y_{i})_{i}} {\displaystyle (Y_{i})_{i}},

E ( | ∑ k = 1 N t Y k | 2 | N t = n ) = E ( | ∑ k = 1 n Y k | 2 ) {\displaystyle \mathbb {E} \left(\left|\sum _{k=1}^{N_{t}}Y_{k}\right|^{2}\,{\bigg |}N_{t}=n\right)=\mathbb {E} (|\sum _{k=1}^{n}Y_{k}|^{2})} {\displaystyle \mathbb {E} \left(\left|\sum _{k=1}^{N_{t}}Y_{k}\right|^{2}\,{\bigg |}N_{t}=n\right)=\mathbb {E} (|\sum _{k=1}^{n}Y_{k}|^{2})}.

Ainsi

E ( | Z t | 2 ) = ∑ n ≥ 1 E ( | ∑ k = 1 n Y k | 2 ) P ( N t = n ) ≤ ∑ n ≥ 1 E ( ∑ k = 1 n | Y k | 2 ) P ( N t = n ) {\displaystyle \mathbb {E} \left(|Z_{t}|^{2}\right)=\sum _{n\geq 1}\mathbb {E} \left(\left|\sum _{k=1}^{n}Y_{k}\right|^{2}\right)\mathbb {P} (N_{t}=n)\leq \sum _{n\geq 1}\mathbb {E} \left(\sum _{k=1}^{n}|Y_{k}|^{2}\right)\mathbb {P} (N_{t}=n)} {\displaystyle \mathbb {E} \left(|Z_{t}|^{2}\right)=\sum _{n\geq 1}\mathbb {E} \left(\left|\sum _{k=1}^{n}Y_{k}\right|^{2}\right)\mathbb {P} (N_{t}=n)\leq \sum _{n\geq 1}\mathbb {E} \left(\sum _{k=1}^{n}|Y_{k}|^{2}\right)\mathbb {P} (N_{t}=n)}

On a alors

E ( | Z t | 2 ) ≤ ∑ n ≥ 1 ( n V a r ( | Y 1 | ) + ( n E ( | Y 1 | ) ) 2 ) P ( N t = n ) ≤ E ( N t ) V a r ( | Y 1 | ) + E ( N t 2 ) E ( | Y 1 | ) 2 {\displaystyle \mathbb {E} (|Z_{t}|^{2})\leq \sum _{n\geq 1}(n\mathrm {Var} (|Y_{1}|)+(n\mathbb {E} (|Y_{1}|))^{2})\mathbb {P} (N_{t}=n)\leq \mathbb {E} (N_{t})\mathrm {Var} (|Y_{1}|)+\mathbb {E} (N_{t}^{2})\mathbb {E} (|Y_{1}|)^{2}} {\displaystyle \mathbb {E} (|Z_{t}|^{2})\leq \sum _{n\geq 1}(n\mathrm {Var} (|Y_{1}|)+(n\mathbb {E} (|Y_{1}|))^{2})\mathbb {P} (N_{t}=n)\leq \mathbb {E} (N_{t})\mathrm {Var} (|Y_{1}|)+\mathbb {E} (N_{t}^{2})\mathbb {E} (|Y_{1}|)^{2}}

( Z t ) t {\displaystyle (Z_{t})_{t}} {\displaystyle (Z_{t})_{t}} est donc de carré intégrable. Il faut donc maintenant exprimer E ( Z t 2 ) {\displaystyle \mathbb {E} (Z_{t}^{2})} {\displaystyle \mathbb {E} (Z_{t}^{2})}.

E ( Z t 2 ) = ∑ n ≥ 1 E ( Z t 2 | N t = n ) P ( N t = n ) = E ( N t ) V a r ( Y 1 ) + E ( N t 2 ) ( E ( Y 1 ) ) 2 {\displaystyle \mathbb {E} (Z_{t}^{2})=\sum _{n\geq 1}\mathbb {E} (Z_{t}^{2}|N_{t}=n)\mathbb {P} (N_{t}=n)=\mathbb {E} (N_{t})\mathrm {Var} (Y_{1})+\mathbb {E} (N_{t}^{2})(\mathbb {E} (Y_{1}))^{2}} {\displaystyle \mathbb {E} (Z_{t}^{2})=\sum _{n\geq 1}\mathbb {E} (Z_{t}^{2}|N_{t}=n)\mathbb {P} (N_{t}=n)=\mathbb {E} (N_{t})\mathrm {Var} (Y_{1})+\mathbb {E} (N_{t}^{2})(\mathbb {E} (Y_{1}))^{2}}

D'où

V a r ( Z t ) = E ( N t ) V a r ( Y 1 ) + V a r ( N t ) ( E ( Y 1 ) ) 2 = λ t E ( Y 1 2 ) . {\displaystyle \mathrm {Var} (Z_{t})=\mathbb {E} (N_{t})\mathrm {Var} (Y_{1})+\mathrm {Var} (N_{t})(\mathbb {E} (Y_{1}))^{2}=\lambda t\mathbb {E} (Y_{1}^{2}).} {\displaystyle \mathrm {Var} (Z_{t})=\mathbb {E} (N_{t})\mathrm {Var} (Y_{1})+\mathrm {Var} (N_{t})(\mathbb {E} (Y_{1}))^{2}=\lambda t\mathbb {E} (Y_{1}^{2}).}

Loi des grands nombres

[modifier | modifier le code]

On peut écrire une loi des grands nombres pour le processus de Poisson composé.

Théorème — Si les Y i {\displaystyle Y_{i}} {\displaystyle Y_{i}} ont un moment d'ordre 2, alors

P ( lim t → + ∞ Z t N t = E ( Y 1 ) ) = 1 {\displaystyle \mathbb {P} \left(\lim _{t\to +\infty }{\dfrac {Z_{t}}{N_{t}}}=\mathbb {E} (Y_{1})\right)=1} {\displaystyle \mathbb {P} \left(\lim _{t\to +\infty }{\dfrac {Z_{t}}{N_{t}}}=\mathbb {E} (Y_{1})\right)=1}
Démonstration

D'après la loi des grands nombres sur ( N t ) t {\displaystyle (N_{t})_{t}} {\displaystyle (N_{t})_{t}}, on a lim t → + ∞ N t t = λ {\displaystyle \lim _{t\to +\infty }{\dfrac {N_{t}}{t}}=\lambda } {\displaystyle \lim _{t\to +\infty }{\dfrac {N_{t}}{t}}=\lambda }. D'où lim t → + ∞ N t = + ∞ {\displaystyle \lim _{t\to +\infty }N_{t}=+\infty } {\displaystyle \lim _{t\to +\infty }N_{t}=+\infty } presque sûrement.

Y 1 , Y 2 , ⋯ , Y N {\displaystyle Y_{1},Y_{2},\cdots ,Y_{N}} {\displaystyle Y_{1},Y_{2},\cdots ,Y_{N}} sont i.i.d. et de carré intégrable. d'après la loi gforte des grands nombres pour les ( Y i ) i {\displaystyle (Y_{i})_{i}} {\displaystyle (Y_{i})_{i}} on a

∑ i = 1 N Y i N ⟶ N → + ∞ E ( Y 1 ) . {\displaystyle {\dfrac {\sum _{i=1}^{N}Y_{i}}{N}}{\underset {N\to +\infty }{\longrightarrow }}\mathbb {E} (Y_{1}).} {\displaystyle {\dfrac {\sum _{i=1}^{N}Y_{i}}{N}}{\underset {N\to +\infty }{\longrightarrow }}\mathbb {E} (Y_{1}).}

Comme N t {\displaystyle N_{t}} {\displaystyle N_{t}} tend presque sûrement vers + ∞ {\displaystyle +\infty } {\displaystyle +\infty }, on a le résultat.

Fonction caractéristique

[modifier | modifier le code]

La fonction caractéristique de ( Z t ) t {\displaystyle (Z_{t})_{t}} {\displaystyle (Z_{t})_{t}} détermine entièrement sa loi de probabilité.

Théorème —  La fonction caractéristique d'un processus de Poisson composé ( Z t ) t {\displaystyle (Z_{t})_{t}} {\displaystyle (Z_{t})_{t}} d'intensité λ {\displaystyle \lambda } {\displaystyle \lambda } s'écrit

Φ Z t ( ξ ) = e λ t ( Φ Y 1 ( ξ ) − 1 ) {\displaystyle \Phi _{Z_{t}}(\xi )=\mathrm {e} ^{\lambda t(\Phi _{Y_{1}}(\xi )-1)}} {\displaystyle \Phi _{Z_{t}}(\xi )=\mathrm {e} ^{\lambda t(\Phi _{Y_{1}}(\xi )-1)}}
Démonstration

Par définition de la fonction caractéristique et par la formule de la formule de l'espérance totale, on a

Φ Z t ( ξ ) = ∑ n ≥ 0 E ( e − i ξ Z t | N t = n ) P ( N t = n ) = ∑ n ≥ 0 E ( e − i ξ ∑ j = 0 N t Y j | N t = n ) P ( N t = n ) {\displaystyle \Phi _{Z_{t}}(\xi )=\sum _{n\geq 0}\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi Z_{t}}|N_{t}=n)\mathbb {P} (N_{t}=n)=\sum _{n\geq 0}\mathbb {E} \left(\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=0}^{N_{t}}Y_{j}}{\bigg |}N_{t}=n\right)\mathbb {P} (N_{t}=n)} {\displaystyle \Phi _{Z_{t}}(\xi )=\sum _{n\geq 0}\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi Z_{t}}|N_{t}=n)\mathbb {P} (N_{t}=n)=\sum _{n\geq 0}\mathbb {E} \left(\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=0}^{N_{t}}Y_{j}}{\bigg |}N_{t}=n\right)\mathbb {P} (N_{t}=n)}

Et par indépendance entre le processus ( N t ) t {\displaystyle (N_{t})_{t}} {\displaystyle (N_{t})_{t}} et la suite de variables aléatoires ( Y j ) j {\displaystyle (Y_{j})_{j}} {\displaystyle (Y_{j})_{j}}, on a que E ( e − i ξ ∑ j = 0 N t Y j | N t = n ) = E ( e − i ξ ∑ j = 1 n Y j ) . {\displaystyle \mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=0}^{N_{t}}Y_{j}}|N_{t}=n)=\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}}).} {\displaystyle \mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=0}^{N_{t}}Y_{j}}|N_{t}=n)=\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}}).} D'où

Φ Z t ( ξ ) = ∑ n ≥ 0 E ( e − i ξ ∑ j = 1 n Y j ) e − λ t ( λ t ) n n ! . {\displaystyle \Phi _{Z_{t}}(\xi )=\sum _{n\geq 0}\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}})\mathrm {e} ^{-\lambda t}{\dfrac {(\lambda t)^{n}}{n!}}.} {\displaystyle \Phi _{Z_{t}}(\xi )=\sum _{n\geq 0}\mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}})\mathrm {e} ^{-\lambda t}{\dfrac {(\lambda t)^{n}}{n!}}.}

Et par indépendance entre les Y j {\displaystyle Y_{j}} {\displaystyle Y_{j}}, on a E ( e − i ξ ∑ j = 1 n Y j ) = Φ Y 1 ( ξ ) n {\displaystyle \mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}})=\Phi _{Y_{1}}(\xi )^{n}} {\displaystyle \mathbb {E} (\mathrm {e} ^{-\mathrm {i} \xi \sum _{j=1}^{n}Y_{j}})=\Phi _{Y_{1}}(\xi )^{n}}. On a donc

Φ Z t ( ξ ) = e − λ t ∑ n ≥ 0 ( Φ Y 1 ( ξ ) ) n ( λ t ) n n ! = e λ t ( Φ Y 1 ( ξ ) − 1 ) . {\displaystyle \Phi _{Z_{t}}(\xi )=\mathrm {e} ^{-\lambda t}\sum _{n\geq 0}(\Phi _{Y_{1}}(\xi ))^{n}{\dfrac {(\lambda t)^{n}}{n!}}=\mathrm {e} ^{\lambda t(\Phi _{Y_{1}}(\xi )-1)}.} {\displaystyle \Phi _{Z_{t}}(\xi )=\mathrm {e} ^{-\lambda t}\sum _{n\geq 0}(\Phi _{Y_{1}}(\xi ))^{n}{\dfrac {(\lambda t)^{n}}{n!}}=\mathrm {e} ^{\lambda t(\Phi _{Y_{1}}(\xi )-1)}.}

Théorème central limite

[modifier | modifier le code]

On peut établir un théorème de convergence pour le processus ( Z t ) t {\displaystyle (Z_{t})_{t}} {\displaystyle (Z_{t})_{t}}.

Théorème —  Soit ( Z t ) t {\displaystyle (Z_{t})_{t}} {\displaystyle (Z_{t})_{t}} un processus de Poisson composé d'intensité Λ {\displaystyle \Lambda } {\displaystyle \Lambda }. On suppose les Y i {\displaystyle Y_{i}} {\displaystyle Y_{i}} centrées, réduites et indépendantes et identiquement distribuées. On a alors la convergence en loi suivante

Z t N t   → L t → + ∞   N ( 0 , 1 ) . {\displaystyle {\dfrac {Z_{t}}{\sqrt {N_{t}}}}\ {\underset {t\to +\infty }{\xrightarrow {\mathcal {L}} }}\ {\mathcal {N}}(0,1).} {\displaystyle {\dfrac {Z_{t}}{\sqrt {N_{t}}}}\ {\underset {t\to +\infty }{\xrightarrow {\mathcal {L}} }}\ {\mathcal {N}}(0,1).}
Démonstration

On utilise la fonction caractéristique de ( Z t ) t {\displaystyle (Z_{t})_{t}} {\displaystyle (Z_{t})_{t}} et on fait un développement limité de Φ Y 1 {\displaystyle \Phi _{Y_{1}}} {\displaystyle \Phi _{Y_{1}}}, au voisinage de 0 (ce qui revient à faire tendre t vers l'infini). On reconnaitra la fonction caractéristique d'une variable aléatoire suivant une loi Normale. on conclut alors par théorème de continuité de Paul-Levy

Annexes

[modifier | modifier le code]

Bibliographie

[modifier | modifier le code]
  • D. Applebaum, Lévy Processes and Stochastic Calculus, PPUR presses polytechniques, 2009
  • J. Bertoin, Lévy Processes, Cambridge University Press, Cambridge, 1996. (ISBN 0-52164-632-4)
  • Y. Caumel, Probabilités et Processus Stochastiques, Springer Verlag France, 2011, (ISBN 2817801628)

Notes et références

[modifier | modifier le code]
  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Compound Poisson process » (voir la liste des auteurs).
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Processus_de_Poisson_composé&oldid=205758686 ».
Catégorie :
  • Processus stochastique
Catégories cachées :
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id