Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Perceptron — Wikipédia
Perceptron — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Perceptron
Schéma d'un perceptron à n entrées. Les entrées i1 à in sont multipliées avec les poids W1 à Wn, puis sommées, avant qu'une fonction d'activation soit appliquée.
Type
Algorithme, réseau de neurones à action directeVoir et modifier les données sur Wikidata
Inventeur
Frank RosenblattVoir et modifier les données sur Wikidata
Décrit par
The perceptron: a probabilistic model for information storage and organization in the brain (d), Encyclopédie soviétique arménienne, Perceptrons (en)Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt[1] au laboratoire d'aéronautique de l'université Cornell. Il s'agit d'un réseau de neurones formels muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparation entre les deux classes.

Définition

[modifier | modifier le code]

Le perceptron peut être vu comme le type de réseau de neurones le plus simple. C'est un classifieur linéaire. Ce type de réseau neuronal ne contient aucun cycle (il s'agit d'un réseau de neurones à propagation avant). Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie (booléenne) à laquelle toutes les entrées (booléennes) sont connectées. Plus généralement, les entrées peuvent être des nombres réels.

Un perceptron à n entrées x = ( x 1 , … , x n ) {\displaystyle x=(x_{1},\dots ,x_{n})} {\displaystyle x=(x_{1},\dots ,x_{n})} et à une seule sortie o est défini par la donnée de n poids (aussi appelés coefficients synaptiques[réf. nécessaire]) ( w 1 , … , w n ) {\displaystyle (w_{1},\dots ,w_{n})} {\displaystyle (w_{1},\dots ,w_{n})} et un biais (ou seuil) θ {\displaystyle \theta } {\displaystyle \theta } par[2],[3]:

o = { 1 s i ∑ i = 1 n w i x i ≥ θ 0 s i n o n {\displaystyle o=\left\{{\begin{matrix}1&\mathrm {si} &\sum _{i=1}^{n}w_{i}x_{i}\geq \theta \\0&\mathrm {sinon} &\end{matrix}}\right.} {\displaystyle o=\left\{{\begin{matrix}1&\mathrm {si} &\sum _{i=1}^{n}w_{i}x_{i}\geq \theta \\0&\mathrm {sinon} &\end{matrix}}\right.}

La sortie o résulte alors de l'application de la fonction de Heaviside au potentiel post-synaptique z = ∑ i = 1 n w i x i − θ {\displaystyle z=\sum _{i=1}^{n}w_{i}x_{i}-\theta } {\displaystyle z=\sum _{i=1}^{n}w_{i}x_{i}-\theta }, où la fonction de Heaviside est :

∀ z ∈ R ,   H ( z ) = { 0 s i z < 0 1 s i z ≥ 0. {\displaystyle \forall z\in \mathbb {R} ,\ H(z)=\left\{{\begin{matrix}0&\mathrm {si} &z<0\\1&\mathrm {si} &z\geq 0.\end{matrix}}\right.} {\displaystyle \forall z\in \mathbb {R} ,\ H(z)=\left\{{\begin{matrix}0&\mathrm {si} &z<0\\1&\mathrm {si} &z\geq 0.\end{matrix}}\right.}

On a alors o = H ( ∑ i = 1 n w i x i − θ ) {\displaystyle o=H\left(\sum _{i=1}^{n}w_{i}x_{i}-\theta \right)} {\displaystyle o=H\left(\sum _{i=1}^{n}w_{i}x_{i}-\theta \right)}. La fonction H {\displaystyle H} {\displaystyle H} est non linéaire et appelée fonction d'activation. Une alternative couramment employée est f = tanh {\displaystyle f=\tanh } {\displaystyle f=\tanh }, la tangente hyperbolique.

Exemple

[modifier | modifier le code]
Un perceptron qui calcule le OU logique.

La figure de droite montre un perceptron avec 2 entrées x {\displaystyle x} {\displaystyle x} et y {\displaystyle y} {\displaystyle y}. Les poids sont marqués sur les arcs : 1 et 1. Le biais est de 1. Ce perceptron calcule le OU logique de x {\displaystyle x} {\displaystyle x} et y {\displaystyle y} {\displaystyle y}, comme le montre la table suivante :

x y x+y x+y ≥ {\displaystyle \geq } {\displaystyle \geq } 1 ? valeur de la sortie
0 0 0 non 0
1 0 1 oui 1
0 1 1 oui 1
1 1 2 oui 1

Algorithme d'apprentissage

[modifier | modifier le code]

Notations

[modifier | modifier le code]

Dans la suite de cet article, on considère un échantillon fini de données labélisées S = { ( X 1 , y 1 ) ,   …   , ( X n , y n ) } {\displaystyle {\mathcal {S}}=\{(X_{1},y_{1}),~\dots ~,(X_{n},y_{n})\}} {\displaystyle {\mathcal {S}}=\{(X_{1},y_{1}),~\dots ~,(X_{n},y_{n})\}}, avec pour tout k ∈ [ [ 1 , n ] ] {\displaystyle k\in [\![1,\,n]\!]} {\displaystyle k\in [\![1,\,n]\!]}, X k = ( x 1 ( k ) , … , x d ( k ) , x d + 1 ( k ) ) ∈ R d + 1 {\displaystyle X_{k}=(x_{1}^{(k)},\dots ,x_{d}^{(k)},x_{d+1}^{(k)})\in \mathbb {R} ^{d+1}} {\displaystyle X_{k}=(x_{1}^{(k)},\dots ,x_{d}^{(k)},x_{d+1}^{(k)})\in \mathbb {R} ^{d+1}}, où x d + 1 ( k ) = 1 {\displaystyle x_{d+1}^{(k)}=1} {\displaystyle x_{d+1}^{(k)}=1}[a], et y k ∈ { − 1 , 1 } {\displaystyle y_{k}\in \{-1,\,1\}} {\displaystyle y_{k}\in \{-1,\,1\}}. On dit alors que les vecteurs X k {\displaystyle X_{k}} {\displaystyle X_{k}} sont les « exemples » et que les points y k {\displaystyle y_{k}} {\displaystyle y_{k}} sont leurs « classes ». Puisque le perceptron ne traite que les problèmes de classification binaire, les y k {\displaystyle y_{k}} {\displaystyle y_{k}} ne peuvent prendre que deux valeurs, par convention − 1 {\displaystyle -1} {\displaystyle -1} et 1 {\displaystyle 1} {\displaystyle 1}.

Enfin, on pose R = max k ∈ [ [ 1 , n ] ] ‖ X k ‖ {\displaystyle R=\max _{k\in [\![1,n]\!]}\|X_{k}\|} {\displaystyle R=\max _{k\in [\![1,n]\!]}\|X_{k}\|}, et γ = max W ∈ R d + 1 min { y ⟨ W , X ⟩ ‖ W ‖ | ( X , y ) ∈ S } {\displaystyle \gamma =\max _{W\in \mathbb {R} ^{d+1}}\min \left\{{\dfrac {y\langle W,X\rangle }{\|W\|}}\,|\,(X,y)\in {\mathcal {S}}\right\}} {\displaystyle \gamma =\max _{W\in \mathbb {R} ^{d+1}}\min \left\{{\dfrac {y\langle W,X\rangle }{\|W\|}}\,|\,(X,y)\in {\mathcal {S}}\right\}}.

On suppose également que S {\displaystyle {\mathcal {S}}} {\displaystyle {\mathcal {S}}} est linéairement séparable, donc γ {\displaystyle \gamma } {\displaystyle \gamma } est (strictement) positif. Le fait que γ {\displaystyle \gamma } {\displaystyle \gamma } soit non-nul découle du lemme suivant :

Lemme de séparabilité linéaire stricte[4] — S'il existe un hyperplan séparant deux classes de données, alors il existe un hyperplan les séparant et tel qu'aucun exemple ne se trouve dessus, i.e. :

∃ ( W , b ) ∈ R d × R , ∀ ( X k , y k ) ∈ S , y k ( ⟨ W , X k ⟩ + b ) > 0. {\displaystyle \exists (W,b)\in \mathbb {R} ^{d}\times \mathbb {R} ,\,\forall (X_{k},y_{k})\in S,\quad y_{k}(\langle W,X_{k}\rangle +b)>0.} {\displaystyle \exists (W,b)\in \mathbb {R} ^{d}\times \mathbb {R} ,\,\forall (X_{k},y_{k})\in S,\quad y_{k}(\langle W,X_{k}\rangle +b)>0.}

Démonstration[5] — Soit S {\displaystyle {\mathcal {S}}} {\displaystyle {\mathcal {S}}} un échantillon de données labélisées linéairement séparables. Soit ( W , b ) {\displaystyle (W,b)} {\displaystyle (W,b)} un hyperplan séparant les données de S {\displaystyle {\mathcal {S}}} {\displaystyle {\mathcal {S}}}. On a alors : { ⟨ W , X k ⟩ + b ≥ 0 si  y k = 1 ⟨ W , X k ⟩ + b < 0 si  y k = − 1. {\displaystyle {\begin{cases}\langle W,X_{k}\rangle +b\geq 0\quad {\text{si }}y_{k}=1\\\langle W,X_{k}\rangle +b<0\quad {\text{si }}y_{k}=-1.\end{cases}}} {\displaystyle {\begin{cases}\langle W,X_{k}\rangle +b\geq 0\quad {\text{si }}y_{k}=1\\\langle W,X_{k}\rangle +b<0\quad {\text{si }}y_{k}=-1.\end{cases}}} Posons ε = − max k { ⟨ W , X k ⟩ + b | y k = − 1 } {\displaystyle \varepsilon =-\max _{k}\left\{\langle W,X_{k}\rangle +b\,|\,y_{k}=-1\right\}} {\displaystyle \varepsilon =-\max _{k}\left\{\langle W,X_{k}\rangle +b\,|\,y_{k}=-1\right\}}. On a alors : { ⟨ W , X k ⟩ + b + ε 2 ≥ ε 2 > 0 si  y k = 1 ⟨ W , X k ⟩ + b + ε 2 ≤ − ε 2 < 0 si  y k = − 1. {\displaystyle {\begin{cases}\langle W,X_{k}\rangle +b+{\frac {\varepsilon }{2}}\geq {\frac {\varepsilon }{2}}>0\quad {\text{si }}y_{k}=1\\\langle W,X_{k}\rangle +b+{\frac {\varepsilon }{2}}\leq -{\frac {\varepsilon }{2}}<0\quad {\text{si }}y_{k}=-1.\end{cases}}} {\displaystyle {\begin{cases}\langle W,X_{k}\rangle +b+{\frac {\varepsilon }{2}}\geq {\frac {\varepsilon }{2}}>0\quad {\text{si }}y_{k}=1\\\langle W,X_{k}\rangle +b+{\frac {\varepsilon }{2}}\leq -{\frac {\varepsilon }{2}}<0\quad {\text{si }}y_{k}=-1.\end{cases}}} L'hyperplan ( W , b + ε 2 ) {\displaystyle (W,b+{\frac {\varepsilon }{2}})} {\displaystyle (W,b+{\frac {\varepsilon }{2}})} démontre donc le lemme.

Énoncé

[modifier | modifier le code]

Il existe plusieurs algorithmes d'apprentissage pour un perceptron. L'un des premiers est l'algorithme du perceptron de Rosenblatt, inventé en 1957, qui a pour but de trouver les paramètres d'un hyperplan séparant correctement les deux classes de données[6],[7] :

Entrées : un échantillon 
  
    
      
        
          
            S
          
        
        =
        {
        (
        
          X
          
            1
          
        
        ,
        
          y
          
            1
          
        
        )
        ,
         
        …
         
        ,
        (
        
          X
          
            n
          
        
        ,
        
          y
          
            n
          
        
        )
        }
      
    
    {\displaystyle {\mathcal {S}}=\{(X_{1},y_{1}),~\dots ~,(X_{n},y_{n})\}}
  
{\displaystyle {\mathcal {S}}=\{(X_{1},y_{1}),~\dots ~,(X_{n},y_{n})\}}de données labélisées
Sortie : la matrice 
  
    
      
        W
      
    
    {\displaystyle W}
  
{\displaystyle W} de poids telle que 
  
    
      
        ∀
        (
        
          X
          
            k
          
        
        ,
        
          y
          
            k
          
        
        )
        ∈
        S
        ,
        
        
          y
          
            k
          
        
        (
        ⟨
        W
        ,
        
          X
          
            k
          
        
        ⟩
        +
        b
        )
        >
        0
      
    
    {\displaystyle \forall (X_{k},y_{k})\in S,\quad y_{k}(\langle W,X_{k}\rangle +b)>0}
  
{\displaystyle \forall (X_{k},y_{k})\in S,\quad y_{k}(\langle W,X_{k}\rangle +b)>0}
1 Initialiser 
  
    
      
        W
        =
        
          0
          
            
              
                R
              
              
                d
                +
                1
              
            
          
        
      
    
    {\displaystyle W=0_{\mathbb {R} ^{d+1}}}
  
{\displaystyle W=0_{\mathbb {R} ^{d+1}}}
2 Répéter
3    Pour 
  
    
      
        i
        =
        1
      
    
    {\displaystyle i=1}
  
{\displaystyle i=1} à 
  
    
      
        n
      
    
    {\displaystyle n}
  
{\displaystyle n}
4        Si 
  
    
      
        
          y
          
            i
          
        
        ⟨
        W
        ,
        
          X
          
            i
          
        
        ⟩
        ≤
        0
      
    
    {\displaystyle y_{i}\langle W,X_{i}\rangle \leq 0}
  
{\displaystyle y_{i}\langle W,X_{i}\rangle \leq 0} alors
5            
  
    
      
        W
        ←
        W
        +
        
          y
          
            i
          
        
        
          X
          
            i
          
        
      
    
    {\displaystyle W\leftarrow W+y_{i}X_{i}}
  
{\displaystyle W\leftarrow W+y_{i}X_{i}}
6    Fin pour
7 jusqu'à ce qu'il n'y ait plus d'erreurs
8 Retourner 
  
    
      
        W
      
    
    {\displaystyle W}
  
{\displaystyle W}

L'algorithme du perceptron de Rosenblatt est un cas particulier de l'algorithme du gradient stochastique utilisant comme fonction objectif C ( W ) = ∑ i ∈ M y i ⟨ W , X i ⟩ {\displaystyle C(W)=\sum _{i\in {\mathcal {M}}}y_{i}\langle W,X_{i}\rangle } {\displaystyle C(W)=\sum _{i\in {\mathcal {M}}}y_{i}\langle W,X_{i}\rangle }, où M {\displaystyle {\mathcal {M}}} {\displaystyle {\mathcal {M}}} est l'ensemble des exemples mal classés ; et un taux d'apprentissage de 1 {\displaystyle 1} {\displaystyle 1}[8].

Convergence

[modifier | modifier le code]

La convergence de l'algorithme est démontrée en 1962 par Novikoff.

Théorème de convergence de Novikoff[9],[10] — L'algorithme du Perceptron de Rosenblatt converge si et seulement si l'échantillon de données entré est linéairement séparable. La convergence se fait en au plus ( R / γ ) 2 {\displaystyle (R/\gamma )^{2}} {\displaystyle (R/\gamma )^{2}} itérations.

Démonstration[11] — On note ( W k ) {\displaystyle (W_{k})} {\displaystyle (W_{k})} la suite des valeurs prises par W {\displaystyle W} {\displaystyle W} lors de l'exécution de l'algorithme. On a donc W 1 = 0 {\displaystyle W_{1}=0} {\displaystyle W_{1}=0}. On suppose que l'algorithme fait k {\displaystyle k} {\displaystyle k} erreurs, et que la k {\displaystyle k} {\displaystyle k}-ième erreur est faite sur l'exemple X t {\displaystyle X_{t}} {\displaystyle X_{t}}. On note W ∗ {\displaystyle W^{*}} {\displaystyle W^{*}} les paramètres d'un hyperplan classant correctement tous les exemples, avec ‖ W ∗ ‖ = 1 {\displaystyle \|W^{*}\|=1} {\displaystyle \|W^{*}\|=1}.

On a donc, en appliquant l'algorithme :

⟨ W k + 1 , W ∗ ⟩ = ⟨ W k + y t X t , W ∗ ⟩ = ⟨ W k , W ∗ ⟩ + y t ⟨ X t , W ∗ ⟩ ≥ ⟨ W k , W ∗ ⟩ + γ ≥ k γ {\displaystyle {\begin{aligned}\langle W_{k+1},W^{*}\rangle &=\langle W_{k}+y_{t}X_{t},W^{*}\rangle \\&=\langle W_{k},W^{*}\rangle +y_{t}\langle X_{t},W^{*}\rangle \\&\geq \langle W_{k},W^{*}\rangle +\gamma \\&\geq k\gamma \end{aligned}}} {\displaystyle {\begin{aligned}\langle W_{k+1},W^{*}\rangle &=\langle W_{k}+y_{t}X_{t},W^{*}\rangle \\&=\langle W_{k},W^{*}\rangle +y_{t}\langle X_{t},W^{*}\rangle \\&\geq \langle W_{k},W^{*}\rangle +\gamma \\&\geq k\gamma \end{aligned}}}

La troisième ligne découle de la définition de γ {\displaystyle \gamma } {\displaystyle \gamma }. La quatrième ligne s'obtient par récurrence, puisque W 1 = 0 {\displaystyle W_{1}=0} {\displaystyle W_{1}=0}. Or, d'après l'inégalité de Cauchy-Schwarz, ‖ W k + 1 ‖   ‖ W ∗ ‖ ≥ ⟨ W k + 1 , W ∗ ⟩ {\displaystyle \|W_{k+1}\|~\|W^{*}\|\geq \langle W_{k+1},W^{*}\rangle } {\displaystyle \|W_{k+1}\|~\|W^{*}\|\geq \langle W_{k+1},W^{*}\rangle }, et ‖ W ∗ ‖ = 1 {\displaystyle \|W^{*}\|=1} {\displaystyle \|W^{*}\|=1} donc, ‖ W k + 1 ‖ ≥ k γ {\displaystyle \|W_{k+1}\|\geq k\gamma } {\displaystyle \|W_{k+1}\|\geq k\gamma }.

De plus :

‖ W k + 1 ‖ 2 = ‖ W k + y t X t ‖ 2 = ‖ W k ‖ 2 + y t 2 ‖ X t ‖ 2 + 2 y t ⟨ X t , W k ⟩ ≤ ‖ W k ‖ 2 + R 2 , {\displaystyle {\begin{aligned}\|W_{k+1}\|^{2}&=\|W_{k}+y_{t}X_{t}\|^{2}\\&=\|W_{k}\|^{2}+y_{t}^{2}\|X_{t}\|^{2}+2y_{t}\langle X_{t},W_{k}\rangle \\&\leq \|W_{k}\|^{2}+R^{2},\end{aligned}}} {\displaystyle {\begin{aligned}\|W_{k+1}\|^{2}&=\|W_{k}+y_{t}X_{t}\|^{2}\\&=\|W_{k}\|^{2}+y_{t}^{2}\|X_{t}\|^{2}+2y_{t}\langle X_{t},W_{k}\rangle \\&\leq \|W_{k}\|^{2}+R^{2},\end{aligned}}}

puisque y t 2 ‖ X t ‖ 2 = ‖ X t ‖ 2 ≤ R 2 {\displaystyle y_{t}^{2}\|X_{t}\|^{2}=\|X_{t}\|^{2}\leq R^{2}} {\displaystyle y_{t}^{2}\|X_{t}\|^{2}=\|X_{t}\|^{2}\leq R^{2}} et y t ⟨ X t , W k ⟩ ≤ 0 {\displaystyle y_{t}\langle X_{t},W_{k}\rangle \leq 0} {\displaystyle y_{t}\langle X_{t},W_{k}\rangle \leq 0}, car l'algorithme se trompe sur le t {\displaystyle t} {\displaystyle t}-ième exemple à la k {\displaystyle k} {\displaystyle k}-ième itération. Finalement, on obtient par récurrence que : ‖ W k + 1 ‖ 2 ≤ k R 2 {\displaystyle \|W_{k+1}\|^{2}\leq kR^{2}} {\displaystyle \|W_{k+1}\|^{2}\leq kR^{2}}.

Donc, k 2 γ 2 ≤ ‖ W k + 1 ‖ 2 ≤ k R 2 {\displaystyle k^{2}\gamma ^{2}\leq \|W_{k+1}\|^{2}\leq kR^{2}} {\displaystyle k^{2}\gamma ^{2}\leq \|W_{k+1}\|^{2}\leq kR^{2}}. On en déduit enfin que k ≤ ( R / γ ) 2 {\displaystyle k\leq (R/\gamma )^{2}} {\displaystyle k\leq (R/\gamma )^{2}}.

Lorsque les données entrées ne sont pas linéairement séparables, l'algorithme ne converge pas, et la suite ( W k ) {\displaystyle (W_{k})} {\displaystyle (W_{k})} est périodique. Le cycle peut cependant être long et difficile à détecter.

Règle de Hebb

[modifier | modifier le code]
Article détaillé : règle de Hebb.

La règle de Hebb, établie par Donald Hebb[12], est une règle d'apprentissage des réseaux de neurones artificiels dans le contexte de l'étude d'assemblées de neurones.

Cette règle suggère que lorsque deux neurones sont excités conjointement, ils créent ou renforcent un lien les unissant.

Dans le cas d'un neurone artificiel seul utilisant la fonction signe comme fonction d'activation cela signifie que :

W i ′ = W i + α ( Y . X i ) {\displaystyle W'_{i}=W_{i}+\alpha (Y.X_{i})} {\displaystyle W'_{i}=W_{i}+\alpha (Y.X_{i})}

où W i ′ {\displaystyle W'_{i}} {\displaystyle W'_{i}} représente le poids i {\displaystyle i} {\displaystyle i} corrigé et α {\displaystyle \alpha } {\displaystyle \alpha } représente le pas d'apprentissage.

Cette règle n'est malheureusement pas applicable dans certains cas bien que la solution existe.

Règle d'apprentissage du perceptron (loi de Widrow-Hoff)

[modifier | modifier le code]

Le perceptron de Frank Rosenblatt est très proche de la règle de Hebb, la grande différence étant qu'il tient compte de l'erreur observée en sortie.

Cette fonction est recommandée lorsque la tangente hyperbolique (tanh) est utilisée comme fonction d'activation.

W i ′ = W i + α ( Y t − Y ) X i {\displaystyle W'_{i}=W_{i}+\alpha (Y_{t}-Y)X_{i}} {\displaystyle W'_{i}=W_{i}+\alpha (Y_{t}-Y)X_{i}}

avec :

  • W i ′ {\displaystyle W'_{i}} {\displaystyle W'_{i}} = le poids i {\displaystyle i} {\displaystyle i} corrigé ;
  • Y t {\displaystyle Y_{t}} {\displaystyle Y_{t}} = sortie attendue ;
  • Y {\displaystyle Y} {\displaystyle Y} = sortie observée ;
  • α {\displaystyle \alpha } {\displaystyle \alpha } = le taux d'apprentissage ;
  • X i {\displaystyle X_{i}} {\displaystyle X_{i}} = l'entrée du poids i {\displaystyle i} {\displaystyle i} pour la sortie attendue Y t {\displaystyle Y_{t}} {\displaystyle Y_{t}} ;
  • W i {\displaystyle W_{i}} {\displaystyle W_{i}} = le poids i {\displaystyle i} {\displaystyle i} actuel.

Notes et références

[modifier | modifier le code]

Notes

[modifier | modifier le code]
  1. ↑ Ainsi, le biais est inclus dans le vecteur X k {\displaystyle X_{k}} {\displaystyle X_{k}}.

Références

[modifier | modifier le code]
  1. ↑ « Psychological Review Vol. 65, No. 6, 1958 "THE PERCEPTRON: A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND ORGANIZATION IN THE BRAIN" - F. ROSENBLATT », sur citeseerx.ist.psu.edu (consulté le 1er mai 2018)
  2. ↑ Le Perceptron, dans Marc Tommasi , Apprentissage automatique : les réseaux de neurones, cours à l'université de Lille 3.
  3. ↑ Arnaud Bodin, François Recher, « DEEPMATH, p.65 », sur exo7, 2023
  4. ↑ (en) Barnabás Póczos, « Convex Optimization : Lecture 2, Linear Programming » Accès libre [PDF], sur Carnegie Mellon University, 2013.
  5. ↑ Stéphane Ayache, Cécile Capponi, François Denis, Rémi Eyraud, Hachem Kadr et Liva Ralaivola, « Classication, Apprentissage, Décision : Chapitre cinquième : Perceptron » Accès libre [PDF].
  6. ↑ (en) Frank Rosenblatt, « The Perceptron, A perceiving and recognizing automaton », Cornell Aeronautical Laboratory,‎ janvier 1957 (lire en ligne Accès libre [PDF]).
  7. ↑ (en) Jean-Christophe B. Loiseau, « Rosenblatt’s perceptron, the very first neural network », sur Medium, 10 janvier 2022 (consulté le 30 juin 2022).
  8. ↑ Hastie, The Elements of Statistical Learning, p. 131.
  9. ↑ (en) Albert Novikoff, On convergence proofs for Perceptrons, Washington, D.C., Office of Naval Research et Stanford Research Institute, janvier 1963 (lire en ligne [PDF]), p. 2.
  10. ↑ (en) Charlie Murphy, Patrick Gray et Gordon Stewart, « Verified perceptron convergence theorem », Proceedings of the 1st ACM SIGPLAN International Workshop on Machine Learning and Programming Languages, Association for Computing Machinery, mAPL 2017,‎ 18 juin 2017, p. 43–50 (ISBN 978-1-4503-5071-6, DOI 10.1145/3088525.3088673, lire en ligne Accès payant, consulté le 30 juin 2022).
  11. ↑ (en) Michael Collins, « Convergence Proof for the Perceptron Algorithm » Accès libre [PDF], sur Université Columbia.
  12. ↑ Donald Olding HEBB, The Organization of Behavior, New York, Wiley & Sons, 1949.

Voir aussi

[modifier | modifier le code]
  • Neurone formel
  • Réseau neuronal artificiel
  • Perceptron multicouche

Bibliographie

[modifier | modifier le code]
  • F. Rosenblatt (1958), The perceptron: a probabilistic model for information storage and organization in the brain,
- repris dans J.A. Anderson & E. Rosenfeld (1988), Neurocomputing. Foundations of Research, MIT Press [lire en ligne]
  • Trevor Hastie, Robert Tibshirani et Jerome Friedman, The Elements of Statistical Learning : Data Mining, Inference, and Prediction, Second Edition, Springer New York, 2009, (ISBN 978-0-387-84858-7).


v · m
Intelligence artificielle (IA)
Concepts
  • Effet IA
  • Grand modèle de langage
  • Hallucination (IA)
  • IA générale
  • IA générative
Techniques
  • Analyse prédictive
  • Apprentissage automatique
  • Apprentissage non supervisé
  • Apprentissage profond
  • Apprentissage supervisé
  • Machine d'apprentissage logique
  • Modèle de fondation
  • Modèle des croyances transférables
  • IA symbolique
  • Réseau bayésien
  • Réseau de neurones artificiels
    • Réseau de neurones récurrents
    • Réseau neuronal convolutif
    • Transformeur
    • Transformeur génératif préentraîné
Applications
  • Art créé par IA
  • Apple Intelligence
  • ChatGPT
  • Conséquences économiques de l'intelligence artificielle
  • DeepL
  • Diagnostic (IA)
  • Écriture assistée par IA
  • IA dans la santé
  • IA dans le jeu vidéo
  • Perception artificielle
  • Planification (IA)
  • Robotique
  • Traduction automatique
  • Traitement automatique des langues
  • Véhicule autonome
  • Vision par ordinateur
Enjeux et philosophie
  • Alignement des intelligences artificielles
  • Chambre chinoise
  • Conscience artificielle
  • Contrôle des capacités de l'IA
  • Détection de contenu généré par intelligence artificielle
  • Éthique de l'IA
  • IA digne de confiance
  • Philosophie de l'IA
  • Sûreté de l'IA
Histoire et événements
  • Histoire de l'intelligence artificielle
  • Logic Theorist (1955)
  • Perceptron (1957)
  • General Problem Solver (1959)
  • Prolog (1972)
  • Matchs Deep Blue contre Kasparov (1996-1997)
  • Match AlphaGo - Lee Sedol (2016)
  • Sommet pour l'action sur l'intelligence artificielle (2025)
Concepts prospectifs
  • Anticipation (IA)
  • IA-complet
  • IA générale
  • Risque de catastrophe planétaire lié à l'intelligence artificielle générale
  • Superintelligence
Règlementation
  • Réglementation de l'IA
  • Règlement de l'UE
Organisations
  • Agence francophone pour l'IA
  • Anthropic
  • Google DeepMind
  • OpenAI
  • Partenariat sur l'IA
Ouvrages
  • Déclaration de Montréal pour un développement responsable de l'intelligence artificielle
  • Lettre ouverte sur l'IA
  • Power and Progress
  • Intelligence artificielle : une approche moderne
  • I.A. La Plus Grande Mutation de l'Histoire
  • icône décorative Portail de l’intelligence artificielle
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de l’informatique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Perceptron&oldid=227816486 ».
Catégories :
  • Réseau de neurones artificiels
  • Intelligence artificielle
Catégories cachées :
  • Page utilisant P31
  • Page utilisant P61
  • Page utilisant des données de Wikidata à traduire de l'anglais
  • Page utilisant P1343
  • Article utilisant l'infobox Méthode scientifique
  • Article utilisant une Infobox
  • Article à référence nécessaire
  • Portail:Intelligence artificielle/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Technologies/Articles liés
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés
  • Article de qualité en russe

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id