Résumé Dans le monde de l'intelligence artificiel aujourd'hui, on a tendance à recopier ce que fait la nature. Et quoi de plus normale que de copier le cerveau humain quand on parle d'intelligence et de réflexion.








télécharger 236.32 Kb.
titreRésumé Dans le monde de l'intelligence artificiel aujourd'hui, on a tendance à recopier ce que fait la nature. Et quoi de plus normale que de copier le cerveau humain quand on parle d'intelligence et de réflexion.
page2/10
date de publication16.05.2017
taille236.32 Kb.
typeRésumé
b.21-bal.com > loi > Résumé
1   2   3   4   5   6   7   8   9   10

Chapitre 1 : Introductions

Introduction




J’ai décidé de baser mon projet de DESS sur les algorithmes génétiques et réseaux de neurones car ce sont les disciplines les plus efficaces, à mon sens, dans le monde de l’intelligence artificielle, un domaine que j’apprécie beaucoup. Le fait de concilier les deux me semble une bonne opportunité d’en apprendre les finesses et performances. Pour cela, j’ai choisis de faire un ‘puissance 4’ car c’est un jeu simple et qui n’a pas de solution finie. Il correspond donc parfaitement a l’utilisation d’algorithmes génétique. Bien sur, j’ai envie que l’application n’ai aucune connaissance de départ et apprenne toute seule, sans expert, d’où l’utilisation de réseau de neurones.

Avec quelques modifications on peut très facilement ajuster l’application à un autre jeux, le cœur est le même, il n’y a que quelques contrainte au niveau des règles de jeux. Je peux dire que ce projet est un bon début pour l’élaboration de travaux futurs.

Matériel de test




PC Ghalleb 1

AMD Duron 800 MHz

512 Mo de RAM

Linux Mandrake 8.1

PC Ghalleb 2

AMD K6 II 350 MHz

128 Mo de RAM

Linux Mandrake 8.1

PC Rachid

AMD Athlon 1 GHz

384 Mo de RAM

Linux Mandrake 7.2

Chapitre 2 : Théorie

Réseaux de Neurones



Principe de fonctionnement général



Comme leur nom l'indique, les réseaux de neurones sont organisés autour d'un ensemble de cellules ou neurones. Le principe de fonctionnement est le suivant : on dispose d'une base de connaissances constituée de couples (inputs, outputs) et on veut utiliser cette base pour entraîner une mémoire informatique à raisonner en prenant comme référence cette base empirique. Un bon exemple est donné par le diagnostic médical. Des médecins disposent d'une importante base de donnée (symptômes, diagnostic). Ils vont entrer cette base de données dans un réseau qui pourra ainsi les aider à formuler un diagnostic plus fiable (cet exemple n'est pas fictif et est en application dans certains hôpitaux aux Etats-Unis).






Fonctions d'activation



Un réseau de neurones est constitué de cellules, ou neurones. Ces cellules sont reliées entre elles par des connexions, ce qui leur permet de disposer d'un canal pour envoyer et recevoir des signaux en provenance d'autres cellules du réseau. Chacune de ces connexions reçoit une valeur, un poids (une pondération en quelque sorte). Les cellules disposent d'une entrée, qui permet de recevoir de l'information d'autres cellules. Elles disposent aussi d'une fonction d'activation, qui est dans les cas les plus simple, une simple identité du résultat obtenu par l'entrée.

Pour un réseau de neurones avec N cellules dans la première couche, l'entrée d'une cellule de la seconde couche sera généralement une somme pondérée des valeurs de sortie des neurones précédents :
X = a1*C(1) + a2*C(2) + a3*C(3) + ... + an*C(n)
On peut utiliser une fonction d'activation identité du type :
Y = d*X
Mais le choix d'une fonction d'activation se révèle être un élément constitutif important des réseaux de neurones. Ainsi, l'identité n'est pas toujours suffisante et souvent des fonctions non linéaires et plus évoluées seront nécessaires. A titre illustratif voici quelques fonctions couramment utilisées comme fonctions d'activation :
La sigmoïde standard, (encore appelé fonction logistique) :
Y = F(X) = 1/(1 + exp(-d*X))

La tangente hyperbolique :

Y = 2 / (1 + exp(-2 * X)) - 1

La fonction Gaussienne :

Y = exp(-(x^2)/2)

Une fonction à seuil :

Y = 0 si X< 0 et Y=1 si X> 0


Couches
L'exemple le plus simple de réseau de neurones est donné par le perceptron multicouches, chaque couche contenant une ou plusieurs cellules. Afin d'illustrer un peu ces propos, voici le rôle de chacune des couches dans un perceptron à trois couches :



Les noeuds d'entrée
La première couche est appelée couche d'entrée. Elle recevra les données source que l'on veut utiliser pour l'analyse. Dans le cas de l'aide au diagnostic médical, cette couche recevra les symptômes. Sa taille est donc directement déterminée par le nombre de variables d'entrées.
Les noeuds cachés
La seconde couche est une couche cachée, en ce sens qu'elle n'a qu'une utilité intrinsèque pour le réseau de neurones et n'a pas de contact direct avec l'extérieur. Les fonctions d'activations sont en général non linéaires sur cette couche mais il n'y a pas de règle à respecter. Le choix de sa taille n'est pas implicite et doit être ajusté. En général, on peut commencer par une taille moyenne des couches d'entrée et de sortie mais ce n'est pas toujours le meilleur choix. Il sera souvent préférable pour obtenir de bons résultats, d'essayer le plus de tailles possibles.
Les noeuds de sortie
La troisième couche est appelée couche de sortie. Elle donne le résultat obtenu après compilation par le réseau des données entrées dans la première couche. Dans le cas de l'aide au diagnostic médical, cette couche donne le diagnostic. Sa taille est directement déterminée par le nombre de variables qu'on veut en sortie.
Structure d’interconnexions
Les connexions entre les neurones qui composent le réseau décrivent la "topologie du modèle". Elle peut être quelconque, mais le plus souvent il est possible de distinguer une certaine régularité.


  • Réseau multicouche : les neurones sont arrangés par couche. Il n'y a pas de connexion entre neurones d'une même couche et les connexions ne se font qu'avec les neurones de couches avales. Habituellement, chaque neurone d'une couche est connecté à tous les neurones de la couche suivante et celle-ci seulement. Ceci nous permet d'introduire la notion de sens de parcours de l'information (de l'activation) au sein d'un réseau et donc définir les concepts de neurone d'entrée, neurone de sortie. Par extension, on appelle couche d'entrée l'ensemble des neurones d'entrée, couche de sortie l'ensemble des neurones de sortie. Les couches intermédiaires n'ayant aucun contact avec l'extérieur sont appelées couches cachées.

 


Définition des couches d'un réseau multicouche





  • Réseau à connexions locales : Il s'agit d'une structure multicouche, mais qui à l'image de la rétine conserve une certaine topologie. Chaque neurone entretient des relations avec un nombre réduit et localisé de neurones de la couche avale. Les connexions sont donc moins nombreuses que dans le cas d'un réseau multicouche classique.

 



Réseau à connexions locales





  • Réseau à connexions récurrentes : les connexions récurrentes ramènent l'information en arrière par rapport au sens de propagation défini dans un réseau multicouche. Ces connexions sont le plus souvent locales.


 

Réseau à connexions récurrentes





  • Réseau à connexion complète : c'est la structure d'interconnexion la plus générale. Chaque neurone est connecté à tous les neurones du réseau (et à lui-même).



Réseau à connexion complète





Les étapes de la conception d'un réseau



Le novice est souvent surpris d'apprendre que pour construire un réseau de neurones, la première chose à faire n'est pas de choisir le type de réseau mais de bien choisir son/ses échantillons de données d'apprentissage, tests et validation. Ce n'est qu'ensuite que le choix du type de réseau interviendra. Afin de clarifier un peu les idées, voici chronologiquement les quatre grandes étapes qui doivent guider la création d'un réseau de neurones.
Choix des échantillons


Le processus d'élaboration d'un réseau de neurones commence toujours par le choix des échantillons. Cette étape est cruciale et va aider le concepteur à déterminer le type de réseau le plus approprié pour résoudre sont problème. La façon dont se présente l'échantillon conditionne : le type de réseau, le nombre de cellules d'entrée, le nombre de cellules de sortie et la façon dont il faudra mener l'apprentissage, les tests et la validation.
Elaboration de la structure du réseau


La structure du réseau dépend étroitement du type des échantillons. Il faut d'abord choisir le type de réseau : un perceptron standard, un réseau de Hopfield, un réseau à décalage temporel (TDNN), un réseau de Kohonen, un ARTMAP etc. Dans le cas du perceptron par exemple, il faudra aussi choisir le nombre de neurones dans la couche cachée. Plusieurs méthodes existent et on peut par exemple prendre une moyenne du nombre de neurones d'entrée et de sortie, mais rien de vaut de tester toutes les possibilités et de choisir celle qui offre les meilleurs résultats.
Apprentissage


L'apprentissage est l'avant dernière phase d'élaboration d'un réseau de neurones. Elle consiste tout d'abord à calculer les pondérations optimales des différentes liaisons, en utilisant un échantillon. La méthode la plus utilisée est la backpropagation : on entre des valeurs du les cellules d'entrée et en fonction de l'erreur obtenue en sortie (le delta), on corrige les poids accordés aux pondérations. C'est un cycle qui est répété jusqu'à ce que la courbe d'erreurs du réseau ne soit plus croissante (il faut bien prendre garde de ne pas surentraîner un réseau de neurones qui deviendra alors moins performant). Il existe d'autres méthodes d'apprentissage telles que le quickprop par exemple, mais la plus utilisée reste encore la rétropropagation.
Validation


Une fois le réseau calculé, il faut procéder à des tests pour vérifier que le réseau réagit bien comme on le souhaite : c'est la validation. Il y a plusieurs méthodes pour faire cela : la cross validation, le bootstrapping... La méthode la plus simple étant de garder une partie de l'échantillon réservé à l'apprentissage, pour la validation et faire ainsi une validation hors-échantillon.

Les grands types de réseaux



Il ne m'est pas possible d'énumérer l'ensemble des types de réseaux de neurones disponibles à ce jour. Je n'en présente que trois car les scientifiques et les informaticiens passionnés n'ont de cesse que d'inventer de nouveaux types de réseaux toujours mieux adaptés à la recherche de solutions de problèmes particuliers.

  • Les Perceptrons Multicouches


Malgré son nom quelque peu barbare, le perceptron multicouches est sans doute le plus simple et le plus connu des réseaux de neurones. La structure est relativement simple : une couche d'entrée, une couche de sortie et une ou plusieurs couches cachées. Chaque neurone n'est relié qu'aux neurones des couches précédentes, mais à tous les neurones de la couche précédente. La fonction d'activation utilisée est en générale une somme pondérée.

  • Les Réseaux de Kohonen


Les réseaux de Kohonen décrivent dont on parle généralement sans les distinguer, décrivent en fait trois familles de réseaux de neurones :

    1. VQ: Vector Quantization. (apprentissage non supervisé)
      Introduite par Grossberg (1976), la quantification vectorielle est une méthode généralement qualifiée d'estimateur de densité non supervisé. Elle permet de retrouver des groupes sur un ensemble de données, de façon relativement similaire à un k-means algorithm que l'on préfèrera d'ailleurs généralement à un VQ si la simplicité d'implémentation n'est pas un élément majeur de la résolution du problème.

    2. SOM: Self Organizing Map. (apprentissage non supervisé)
      Les SOM sont issus des travaux de Fausett (1994) et Kohonen (1995). Ces réseaux sont très utilisés pour l'analyse de données. Ils permettent de cartographier en deux dimensions et de distinguer des groupes dans des ensembles de données. Les SOM sont encore largement utilisés mais les scientifiques leur préfèrent maintenant les LVQ.

    3. LVQ: Learning Vector Quantization. (apprentissage supervisé)
      Les réseaux utilisant la méthode LVQ ont été proposés par Kohonen (1988). Des trois types de réseaux présentés ici, la LVQ est la seule méthode qui soit réellement adaptée à la classification de données par "recherche du plus proche voisin".



  • Les Réseaux de Hopfield


Ces réseaux sont des réseaux récursifs, un peu plus complexes que les perceptrons multicouches. Chaque cellule est connectée à toutes les autres et les changements de valeurs de cellules s'enchaînent en cascade jusqu'à un état stable. Ces réseaux sont bien adaptés à la reconnaissance de formes.
1   2   3   4   5   6   7   8   9   10

similaire:

Résumé Dans le monde de l\Programme Histoire et civilisations
«Peut-être arrivera-t-il bientôt dans la manière d’écrire l’histoire ce qui est arrivé dans la physique. Les nouvelles découvertes...

Résumé Dans le monde de l\* Culture & loisirs Expositions & musées
«Osez l’Intelligence économique avec les cci de Rhône-Alpes», ce document présente les différentes composantes et métiers de l'Intelligence...

Résumé Dans le monde de l\Les formes substantielles chez Malebranche et Leibniz
«devenir comme maître et possesseur de la nature» -, on parle de l’appropriation, de la tutelle jetée sur la nature qui fait le drame...

Résumé Dans le monde de l\Résumé S’il fallait démontrer l’actualité de Pierre Janet, IL suffit...
«La psychologie proprement dite, qui, par peur, de la métaphysique s’était jetée dans les mathématiques dans une prétendue anatomie...

Résumé Dans le monde de l\Thèse pour le Doctorat de sociologie
«Comme tous mes amis sans exception sont des êtres de grand talent et de vaste intelligence, les conceptions qu’ils expriment seraient...

Résumé Dans le monde de l\RÉsumé IL y a aujourd'hui un consensus pour reconnaître que les années...

Résumé Dans le monde de l\Un apprentissage compatible avec le cerveau
Corps-cerveau (bodybrain) : terme inventé par Susan Kovalik pour traduire l’implication dynamique et intégrée de l’ensemble de l’organisme...

Résumé Dans le monde de l\Questionnaire plan
«la bande d’adolescents» qui est aujourd’hui un phénomène actuel mais différent, d’où aujourd’hui IL est étudié différemment qu’auparavant,...

Résumé Dans le monde de l\Il livre une comparaison entre les obsessions qui effrayaient le...
«terrorisme» qui exclut le terrorisme qui fait le plus de dégâts en vies humaines et en destructions matérielles- le terrorisme d’Etat....

Résumé Dans le monde de l\L’écriture avait depuis longtemps conquis d’autres domaines que celui...
«connais-toi toi-même», si bien repris dans la pensée socratique, introduisit sur la place publique le débat principal de la réflexion...








Tous droits réservés. Copyright © 2016
contacts
b.21-bal.com