Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Tesla Dojo — Wikipédia
Tesla Dojo — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voir Tesla et Dojo.

Tesla Dojo
Tuile d'entraînement (MCM) composée de 300 multipuces D1 de supercalculateur Tesla Dojo ExaPod.
Développeur
Tesla (automobile)
Fabricant
Taiwan Semiconductor Manufacturing Company (TSMC)
Famille
Centre de données (data center)
Présentation
2021, par Elon Musk
Fonctions
Type
Supercalculateur IA
Caractéristiques
Processeur
D1

modifier - modifier le code - modifier WikidataDocumentation du modèle

Tesla Dojo est un supercalculateur IA (et un centre de données, data center) américain, présenté par Elon Musk en 2021, et initialement conçu par Tesla, pour le développement par intelligence artificielle (IA) de son système avancé d’aide à la conduite Tesla Autopilot.

Présentation

[modifier | modifier le code]
Système d'aide à la conduite Tesla Autopilot d'une Tesla Model X, en 2017.

Nommé « Tesla Dojo » par Elon Musk d'après le nom des salles d'entrainement intensif d'arts martiaux japonais, ce supercalculateur Tesla est initialement conçu pour le traitement de données, la reconnaissance de formes et l'analyse d'image par intelligence artificielle (IA) issus d'images d'archives de vision par ordinateur des caméras embarquées des voitures Tesla, afin de former ses modèles d'apprentissage automatique pour assister et développer son système avancé d'assistance à la conduite Tesla Autopilot. L'accent mis par Dojo sur l'apprentissage automatique a conduit à une architecture considérablement différente des conceptions des supercalculateurs conventionnels[1], avec pour objectif principal « l'évolutivité » entre autres vers la puissance d'un supercalculateur exaflopique, et vers le développement d'autres projets tels que robotaxi Tesla Cybercab, Tesla Robovan, Tesla Optimus, et xAI...

Architecture

[modifier | modifier le code]
Vue de l'architecture Tesla Dojo : de la puce D1 (à gauche) jusqu'à l'ExaPOD (à droite).

L'unité fondamentale de Dojo est la puce D1[2], conçue par une équipe complète de Tesla[3]. Selon G. Venkataramanan, directeur principal du matériel de pilotage automatique de Tesla « Tesla place 25 de ces puces sur une seule 'carte d'entraînement', ce qui correspond à plus d'un exaflop [un million de téraflops] de puissance"[4] ». En tant que mise à jour lors de « IA Day » en 2022, Tesla a annoncé que Dojo évoluerait en déployant plusieurs ExaPOD, qui le contiendront[5].

À titre de comparaison, selon Nvidia, en août 2021, le centre d'entraînement AI de Tesla (préversion de Dojo) utilisait 720 nœuds, chacun avec huit GPU Nvidia A100 Tensor Core pour 5 760 GPU au total, fournissant éventuellement jusqu'à 1,8 exaflops de performances[6].

Puce D1

[modifier | modifier le code]

Chaque nœud (cœur de calcul) de la puce de traitement D1 est un processeur 64 bits classique. Il prend en charge le parallélisme interne de toutes les instructions et comprend le multithreading simultané (SMT). Cependant il ne prend pas en charge la mémoire virtuelle et utilise des mécanismes limités de protection complète de la mémoire. Les logiciels développés pour le système Dojo gèrent les ressources de la puce directement.

Microarchitecture d'un nœud sur la puce D1

Le jeu d'instructions dénommé D1 prend en charge les instructions scalaires 64 bits et SIMD 64 bits. L'unité entière mélange RISC-V et des instructions customisées, prenant en charge les entiers. L'unité mathématique vectorielle prend en charge plusieurs formats de données, dont beaucoup sont sélectionnables par le compilateur[3]. Jusqu'à 16 formats vectoriels peuvent être utilisés en même temps[3].

Nœud

[modifier | modifier le code]

Chaque nœud D1 utilise une fenêtre d'extraction de 32 octets qui contient huit instructions. Un décodeur à huit largeurs prend en charge deux threads par cycle. Ce frontal alimente un planificateur scalaire SMT à quatre voies et quatre largeurs qui a deux unités entières, deux unités d'adresse et un fichier de registres par thread.

Le routeur réseau sur puce (NOC) relie les cœurs dans un système de maillage 2D. Il peut envoyer un paquet entrant et en même temps un paquet sortant dans les quatre directions vers chaque nœud voisin par cycle, avec une lecture 64 bits et une écriture 64 bits vers la SRAM locale par cycle[3].

Les données de base transfèrent des données à travers les mémoires et les processeurs, et les contraintes de sémaphore et de barrière. La mémoire DDR4 à l'échelle du système fonctionne comme un stockage de masse.

Mémoire

[modifier | modifier le code]

Chaque cœur possède 1,25 Mo de mémoire principale SRAM. Les vitesses de chargement et de stockage atteignent 400 Go/s et 270 Go/s, respectivement. La puce a des instructions de transfert de données cœur à cœur. Chaque SRAM possède un système qui alimente une paire de décodeurs et un système de collecte qui alimente le fichier de registre vectoriel, qui ensemble peuvent transférer directement des informations entre les nœuds[3].

Puce

[modifier | modifier le code]

En 2021, il a été annoncé que le D1 utilise un « procédé de fabrication de 7 nanomètres, avec 362 téraflops de puissance de traitement[4] ». Douze nœuds sont regroupés dans un bloc local. Les nœuds (cœurs) sont disposés en un réseau 18 × 20 sur la puce, dont 354 cœurs sont disponibles pour les applications[3]. De plus, la puce tourne à 2 GHz et totalise 440 Mo de SRAM (360 cœurs × 1,25 Mo/cœur)[3]. Elle atteint 376 téraflops en BF16 ou en CFloat8, une proposition de Tesla pour un format 8 bits configurable[7], et 22 téraflops en FP32.

Chaque puce a 576 canaux SerDes (en) bidirectionnels à sa périphérie pour se connecter à d'autres puces, et fournit 8 To/s sur les quatre côtés de la puce. La surface de la puce est de 645 millimètres carrés[3]. Chaque puce D1 a une puissance de conception thermique d'environ 400 watts[8].

Carte d'entraînement

[modifier | modifier le code]

La carte d'entraînement MCM (ou « tuile d'entraînement ») regroupe 25 puces D1 dans une matrice 5 × 5 et a un refroidissement liquide[3]. Chaque carte prend en charge 36 To/s de bande passante agrégée via 40 puces d'E/S - la moitié de la bande passante du maillage de puces. Chaque carte a 11 Go de mémoire SRAM (25 puces D1 × 360 cœurs/D1 × 1,25 Mo/cœur). Chaque carte atteint 9 pétaflops à la précision BF16/CFloat8 (25 puces D1 × 376 TFLOP/D1). Chaque carte consomme 15 kilowatts[3], soit 288 ampères à 52 volts[8].

Bloc système

[modifier | modifier le code]

Six cartes d'entraînement sont regroupées dans un bloc système, qui est intégré à une interface hôte. Chaque interface hôte comprend 512 cœurs x86, fournissant un environnement utilisateur basé sur Linux[9]. Il dispose de 53 100 cœurs D1, évalués à 1 exaflops aux formats BF16 et CFloat8. Il a 1,3 To de mémoire SRAM intégrée et 13 To de mémoire double en ligne à large bande passante (HBM).

Processeur d'interface Dojo

[modifier | modifier le code]

Les cartes du Processeur d'Interface Dojo (PID) sont placées sur les bords des tuiles d'entraînement et sont raccordées au maillage. Les systèmes « hôtes » alimentent les PID et exécutent plusieurs fonctions de gestion du système. Une mémoire PID et un coprocesseur d'E/S contiennent 32 Go de mémoire HBM partagée (soit HBM2e ou HBM3) - ainsi que des interfaces Ethernet qui contournent le maillage. Chaque carte PID dispose de 2 processeurs d'E/S avec 4 banques de mémoire totalisant 32 Go avec 800 Go/s de bande passante.

Le PID se branche sur un slot PCI Express 4.0 x16 qui offre 32 Go/s de bande passante par carte. Cinq cartes offrent 160 Go/s de bande passante vers les serveurs hôtes et 4,5 To/s à la tuile.

Protocole de transport Tesla

[modifier | modifier le code]

Tesla Transport Protocol (TTP) est un protocole propriétaire mais sur port standard PCI Express. La liaison de protocole TTP Go/s fonctionne sur Ethernet (400 Port Gb/s ou plusieurs 200 Ports Gb/s). Parcourir l'ensemble du maillage 2D peut prendre 30 itérations, tandis que TTP sur Ethernet ne prend que quatre itérations, ce qui réduit notablement la latence.

Logiciel

[modifier | modifier le code]

Dojo prend en charge PyTorch, plutôt que C, C++ ou CUDA. La SRAM se présente comme un espace d'adressage unique[3].

Tesla a conçu des formats à virgule flottante configurables 8 et 16 bits (CFloat8 et CFloat16, respectivement) qui permettent au compilateur de définir dynamiquement la mantisse et l'exposant, acceptant une précision inférieure en échange d'un traitement vectoriel plus rapide et d'exigences de stockage réduites[3],[7].

Histoire

[modifier | modifier le code]
Elon Musk et ses voitures Tesla, en 2016.

Le cluster précurseur sans nom utilisant 5 760 GPU Nvidia A100 a été présenté par Andrej Karpathy (directeur de l'intelligence artificielle et du pilotage automatique chez Tesla) lors de la 4e Conférence internationale conjointe sur la vision par ordinateur et la reconnaissance de formes (CCVPR 2021) comme « à peu près le cinquième supercalculateur au monde »[10] à environ 81,6 pétaflops, basé sur la mise à l'échelle des performances du supercalculateur Nvidia Selene (supercomputer) (en), qui utilise des composants similaires[11]. Cependant, les performances du cluster GPU Tesla ont été contestées, car il n'était pas clair si cela avait été mesuré en FP32 ou FP64[12]. Tesla exploite également un deuxième cluster de 4 032 GPU pour l'entraînement et un troisième cluster de 1 752 GPU pour l'étiquetage automatique[13],[14].

Le principal cluster GPU Tesla sans nom a été utilisé pour traiter un million de clips vidéo, chacun d'une durée de dix secondes, extraits de caméras Tesla Autopilot fonctionnant dans le monde réel, fonctionnant à 36 images par seconde. Collectivement, les clips vidéo contenaient six milliards d'étiquettes d'objets, avec des données de profondeur et de vitesse ; la taille totale de l'ensemble de données était de 1,5 PB ; cet ensemble de données a été utilisé pour former un réseau de neurones destiné à aider les ordinateurs de bord du pilote automatique à comprendre les routes[10]. En août 2022, Tesla avait mis à niveau le cluster GPU principal à 7 360 GPU.

Présentation du robotaxi Tesla Cybercab, en 2024.

Dojo a été mentionné une première fois par Elon Musk en avril 2019 lors de la « Journée des investisseurs en autonomie »[15]. En août 2020[10],[16], Musk a déclaré qu'il était « prévu dans environ un an » en raison de problèmes d'alimentation et thermiques[17].

Il a été officiellement annoncé par Musk lors de la Journée de l'IA de Tesla (IA Day) le 19 août 2021[18]. Lors de cet AI Day, Tesla a révélé les détails de la puce D1 et ses plans pour « Project Dojo » un centre de données qui abriterait 3 000 puces D1[19] ; la première « tuile d'entraînement » avait été achevée et livrée la semaine précédente[13]. En octobre 2021, Tesla a publié un livre blanc « Dojo Technology » décrivant les formats à virgule flottante Configurable Float8 (CFloat8) et Configurable Float16 (CFloat16) et les opérations arithmétiques en tant qu'extension de IEEE 754[7].

Lors de la journée de suivi de l'IA en septembre 2022, Tesla a annoncé qu'elle avait construit plusieurs plateaux système (system tray) et une armoire (cabinet). Lors d'un test, il a été affirmé par la société que Project Dojo avait consommé jusqu'à 2,3 MW avant de déclencher une sous-station locale à San José (capitale de la Silicon Valley) en Californie[9]. À l'époque, Tesla assemblait une tuile d'entraînement par jour[14].

Notes et références

[modifier | modifier le code]
  1. ↑ (en) « Tesla's Dojo is impressive, but it won't transform supercomputing », sur TechRepublic, 25 août 2021
  2. ↑ (en) Bellan et Alamalhodaei, « Top four highlights of Elon Musk's Tesla AI Day », techcrunch.com, Techcrunch, 20 août 2021 (consulté le 20 août 2021)
  3. ↑ a b c d e f g h i j k et l (en) Timothy Prickett Morgan, « Inside Tesla's innovative and homegrown 'Dojo' AI supercomputer », sur The Next Platform, 23 août 2022 (consulté le 12 avril 2023)
  4. ↑ a et b (en) Novet, « Tesla unveils chip to train A.I. models inside its data centers », cnbc.com, CNBC, 20 août 2021 (consulté le 20 août 2021)
  5. ↑ (en) Morris, James, « Tesla's Biggest News At AI Day Was The Dojo Supercomputer, Not The Optimus Robot » Accès limité, Forbes, 6 octobre 2022 (consulté le 13 avril 2023)
  6. ↑ (en) Shahan, « NVIDIA: Tesla's AI-Training Supercomputers Powered By Our GPUs » [archive du 19 août 2021], sur CleanTechnica (en), 19 août 2021
  7. ↑ a b et c (en) « Tesla Dojo Technology: A Guide to Tesla's Configurable Floating Point Formats & Arithmetic », Tesla, Inc.
  8. ↑ a et b (en) Hamilton, James, « Tesla Project Dojo Overview », Perspectives, août 2021
  9. ↑ a et b (en) Fred Lambert, « Tesla unveils new Dojo supercomputer so powerful it tripped the power grid », sur Electrek (en), 1er octobre 2022 (consulté le 13 avril 2023)
  10. ↑ a b et c (en) Peckham, Oliver, « Ahead of 'Dojo,' Tesla Reveals Its Massive Precursor Supercomputer », HPCwire, 22 juin 2021
  11. ↑ (en) « Tesla details pre-Dojo supercomputer, could be up to 80 petaflops », Data Center Dynamics,‎ 23 juin 2021 (lire en ligne, consulté le 14 avril 2023)
  12. ↑ « Tesla's Dojo supercomputer - sorting out fact from hype », diginomica,‎ 28 septembre 2021 (lire en ligne, consulté le 14 avril 2023)
  13. ↑ a et b (en) « Tesla details Dojo supercomputer, reveals Dojo D1 chip and training tile module », Data Center Dynamics,‎ 20 août 2021 (lire en ligne, consulté le 14 avril 2023)
  14. ↑ a et b (en) « Tesla begins installing Dojo supercomputer cabinets, trips local substation », Data Center Dynamics,‎ 3 octobre 2022 (lire en ligne, consulté le 14 avril 2023)
  15. ↑ Brown, « Tesla Dojo: Why Elon Musk says full self-driving is set for 'quantum leap' » [archive du 25 février 2021], Inverse (site web) (en), 19 août 2020 (consulté le 5 septembre 2021)
  16. ↑ (en) Elon Musk (@elonmusk), « Tesla is developing a NN training computer called Dojo to process truly vast amounts of video data. It's a beast! Please consider joining our AI or computer/chip teams if this sounds interesting. », sur Twitter, 14 août 2020 (consulté le 28 juin 2023)
  17. ↑ (en) Elon Musk (@elonmusk), « Dojo V1.0 isn't done yet. About a year away. Not just about the chips. Power & cooling problem is hard. », sur Twitter, 19 août 2020 (consulté le 28 juin 2023)
  18. ↑ [vidéo] « Tesla AI Day 2021 », sur YouTube
  19. ↑ Morris, James, « Elon Musk Aims To End Employment As We Know It With A Robot Humanoid » Accès limité, Forbes, 20 août 2021 (consulté le 13 avril 2023)

Voir aussi

[modifier | modifier le code]

Sur les autres projets Wikimedia :

  • Tesla Dojo, sur Wikimedia Commons
  • xAI
  • Tesla Autopilot
  • Tesla Cybercab
  • Tesla Optimus
  • Superordinateur
  • Centre de données
  • Supercalculateur exaflopique

Liens externes

[modifier | modifier le code]
  • [vidéo] « Elon Musk révèle le secret du supercalculateur DOJO ! », sur YouTube
  • Kennedy, Patrick, « Tesla Dojo AI Tile Microarchitecture », Serve The Home, 23 août 2022
  • Kennedy, Patrick, « Tesla Dojo Custom AI Supercomputer at HC34 », Serve The Home, 23 août 2022
v · m
Tesla
  • Elon Musk
  • Martin Eberhard
  • Marc Tarpenning
  • Robyn Denholm
Véhicule en production
  • Roadster I
  • Tesla Model S
  • Tesla Model 3
  • Tesla Model X
  • Tesla Model Y
Véhicule en cours de développement
  • Tesla Semi
  • Tesla Cybertruck
  • Roadster II
  • Tesla Cybercab
  • Tesla Robovan
Site de Production
  • Usine de Fremont (Californie)
  • Usine d'assemblage de Tilbourg (Union européenne)
  • Gigafactory 1 (Nevada)
  • Gigafactory 2 (État de New York)
  • Gigafactory 3 (Shanghai)
  • Gigafactory 4 (Europe)
  • Site de production du Texas
v · m
Big data
Méthodes
  • Algorithme de fouille de flots de données
  • Analyse des données
  • Parallélisme
Services
  • Centre de données
  • Cloud computing
  • Analyse de sentiments
  • Opt in
  • Opt out
Exploration de données
  • Fouille de données spatiales
  • Fouille du web
  • Fouille de flots de données
  • Fouille de textes
  • Fouille d'images
  • Fouille audio
  • Glossaire de l'exploration de données
Outils
  • Base de données relationnelle
  • Hadoop
  • Logiciels de fouille de données
  • Robot d'indexation
  • Système de gestion de base de données
    • NoSQL
    • NewSQL
  • Technologies matérielles dédiées
Organismes
  • Union internationale des télécommunications
  • Histoire d'Internet
  • Révolution numérique
  • Science des données
  • Données ouvertes
v · m
Elon Musk
Entreprises
  • Zip2 (1995-1999)
  • X.com (banque) (1999-2000)
  • PayPal (1999-2002)
  • SpaceX (depuis 2002)
  • Starlink
  • Tesla (depuis 2004)
  • SolarCity (depuis 2006)
  • Tesla Energy (depuis 2015)
  • OpenAI (2015-2018)
  • Neuralink (depuis 2016)
  • The Boring Company (depuis 2016)
  • X (ex-Twitter) (depuis 2022)
Photo en buste d'un homme en complet avec veston noir, cravate noire et chemise blanche, devant une assemblée en arrière-plan
Autres intérêts
  • Pioneer Building (San Francisco)
  • Astra Nova School
  • Hyperloop
  • Engin spatial Tesla Roadster
  • Tesla Cybercab
  • Tesla Robovan
  • Tesla Optimus
  • Tesla Dojo
  • Acquisition de Twitter
  • Polémiques
    • salut nazi
  • Département de l'Efficacité gouvernementale (DOGE)
Famille
  • Maye Musk (mère)
  • Justine Musk (1re femme)
  • Talulah Riley (2e femme)
  • Kimbal Musk (frère)
  • Tosca Musk (sœur)
  • Lyndon Rive (cousin)
  • Claire Boucher (3e femme)
  • Vivian Jenna Wilson (fille)
  • Shivon Zilis (mère de 3 enfants d'Elon Musk)
v · m
Intelligence artificielle (IA)
Concepts
  • Effet IA
  • Grand modèle de langage
  • Hallucination (IA)
  • IA générale
  • IA générative
Techniques
  • Analyse prédictive
  • Apprentissage automatique
  • Apprentissage non supervisé
  • Apprentissage profond
  • Apprentissage supervisé
  • Machine d'apprentissage logique
  • Modèle de fondation
  • Modèle des croyances transférables
  • IA symbolique
  • Réseau bayésien
  • Réseau de neurones artificiels
    • Réseau de neurones récurrents
    • Réseau neuronal convolutif
    • Transformeur
    • Transformeur génératif préentraîné
Applications
  • Art créé par IA
  • Apple Intelligence
  • ChatGPT
  • Conséquences économiques de l'intelligence artificielle
  • DeepL
  • Diagnostic (IA)
  • Écriture assistée par IA
  • IA dans la santé
  • IA dans le jeu vidéo
  • Perception artificielle
  • Planification (IA)
  • Robotique
  • Traduction automatique
  • Traitement automatique des langues
  • Véhicule autonome
  • Vision par ordinateur
Enjeux et philosophie
  • Alignement des intelligences artificielles
  • Chambre chinoise
  • Conscience artificielle
  • Contrôle des capacités de l'IA
  • Détection de contenu généré par intelligence artificielle
  • Éthique de l'IA
  • IA digne de confiance
  • Philosophie de l'IA
  • Sûreté de l'IA
Histoire et événements
  • Histoire de l'intelligence artificielle
  • Logic Theorist (1955)
  • Perceptron (1957)
  • General Problem Solver (1959)
  • Prolog (1972)
  • Matchs Deep Blue contre Kasparov (1996-1997)
  • Match AlphaGo - Lee Sedol (2016)
  • Sommet pour l'action sur l'intelligence artificielle (2025)
Concepts prospectifs
  • Anticipation (IA)
  • IA-complet
  • IA générale
  • Risque de catastrophe planétaire lié à l'intelligence artificielle générale
  • Superintelligence
Règlementation
  • Réglementation de l'IA
  • Règlement de l'UE
Organisations
  • Agence francophone pour l'IA
  • Anthropic
  • Google DeepMind
  • OpenAI
  • Partenariat sur l'IA
Ouvrages
  • Déclaration de Montréal pour un développement responsable de l'intelligence artificielle
  • Lettre ouverte sur l'IA
  • Power and Progress
  • Intelligence artificielle : une approche moderne
  • I.A. La Plus Grande Mutation de l'Histoire
v · m
Chronologie des modèles de Tesla de 2008 à nos jours.
TypeAnnées 2000 Années 2010 Années 2020
8 90 1 2 3 4 5 6 7 8 90 1 2 3 4 5
Cabriolet Roadster I    
Routière     Model S
Familiale     Model 3
SUV     Model X
Crossover     Model Y
Utilitaire       Cybertruck
Camion       Semi
Prototypes
  • Roadster II
  • « Model 2 » (en)
  • Cyberquad (en)
  • icône décorative Portail de l’automobile
  • icône décorative Portail de l’électricité et de l’électronique
  • icône décorative Portail de l’informatique
  • icône décorative Portail des données
  • icône décorative Portail de l’imagerie numérique
  • icône décorative Portail de l’intelligence artificielle
  • icône décorative Portail des États-Unis
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Tesla_Dojo&oldid=233420799 ».
Catégories :
  • Tesla (automobile)
  • Vision artificielle
  • Superordinateur
Catégories cachées :
  • Article contenant un appel à traduction en anglais
  • Article utilisant l'infobox Appareil informatique
  • Article utilisant une Infobox
  • Catégorie Commons avec lien local identique sur Wikidata
  • Portail:Automobile/Articles liés
  • Portail:Transports/Articles liés
  • Portail:Technologies/Articles liés
  • Portail:Électricité et électronique/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Données/Articles liés
  • Portail:Sciences/Articles liés
  • Portail:Imagerie numérique/Articles liés
  • Portail:Intelligence artificielle/Articles liés
  • Portail:États-Unis/Articles liés
  • Portail:Amérique/Articles liés
  • Portail:Amérique du Nord/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id