Un neurone, tu vois ce que c’est ?

 

Tu vas répondre oui pour te la péter, mais je suis sûr qu’un bon rappel ne ferait pas de mal.

Les neurones, c’est les cellules qui composent ton petit cerveau François-Hector. Ils somment des impulsions électriques qui, si elles dépassent une valeur seuil, vont déclancher la relâche de molécules appelées neurotransmetteurs dans la synapse.

Cette activation du neurone va contribuer a propager le message au neurone suivant, de l’autre côté de la synapse.

Capiche ? Non ? Wikipédia.

 

On peut donc facilement associer ce système ouvert/fermé au language binaire 0/1 de l’informatique.

Et cette association a eut vite fait d’être faite en 1958 par un mec apellé Rosenblatt qui a théorisé tout ça dans son papier « The perceptron: a probabilistic model for information storage and organization in the brain« .

On va regarder ce perceptron d’un peu plus près.

Mimer informatiquement la biologie

 

La première étape dans tout ça, c’est de créer un dataset à qui on va attribuer des classes.

On ne s’enflamme pas, le perceptron est un classifieur binaire et linéaire. Ce qui signifie que notre neurone artificiel, il va pouvoir s’entraîner a classifier des objets dans deux catégories, et SEULEMENT DEUX.

Donc, n’insiste pas, François-Hector, tu n’en auras pas plus pour le moment. Et en plus, notre perceptron va être performant seulement si les deux classes sont linéairement séparables (on peut tracer une droite ou un plan qui va séparer les deux groupes).

On crée donc une liste de coordonnées dans un graphique sur le format:

 

[
  [X1, Y1],
  [X2, Y2],
  [X3, Y3] ...
]

 

 

Published on :Posted on

Post your comment