Réseaux neuronaux
olivier.teytaud@inria.fr
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
Merci Adventiel :-)
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle & jeux
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
36/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Deep blue vainc Kasparov, 1987
Puissance
de calcul et
expertise
humaine
46/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Jeu parfait au puissance 4, 1988
Résolution par
programmation
(reproduire
raisonnement
humain)
56/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Backgammon, top niveau en 1992
Apprentissage
autonome &
réseau de
neurones !
66/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Dames anglaises: jeu parfait
atteint en 2007
Puissance de
calcul et expertise
humaine
76/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Arimaa, créé pour défier l'ordinateur -
qui a gagné en 2015!
Puissance de
calcul et expertise
humaine
86/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Jeux
Alpha-Go et le jeu de Go
Puissance de calcul,
peu d'expertise humaine,
apprentissage
autonome, réseau
de neurones.
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
IA & machine learning
● Bonne vieille IA:
– Axiomes
– Déductions
==> Modèle > data
(not dead)
● Ici on va plutôt parler machine learning:
– Plein de data
– Fonctions fabriquées pour bien réagir aux data
==> Data > modèle
IA & machine learning
Deux formes d'apprentissage:
● Supervisé: je te montre des situations et ce que tu dois faire
dans ces situations
– Reproduire comportement humain (bras robot)
– Reconnaître image étiqueté (ce cochon va-t-il bien ?)
● Renforcement: je te dis “c'est bien” ou “c'est mal”,
éventuellement un peu tard
– Jeux (on sait si on a gagné à la fin de la partie)
– Reconnaître image non-étiquetée
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
Neurone
Un neurone, c'est une fonction qui dépend de
paramètres, comme suit:
Entrée = vecteur x
Paramètre = vecteur w
Sortie y = tanh(w0 + w1x1 + w2x2 + … + wnxn)
Vectoriel raccourci: y = tanh(wx)
Réseau de neurones
D'abord, plusieurs neurones côte à côte:
Entrée = vecteur x
Paramètre = matrice w
Sorties
y0 = tanh(w00 + w01x1 + w02x2 + … + w0nxn)
… … … …
yk = tanh(wk0 + wk1x1 + wk2x2 + … + wknxn)
Matriciel raccourci: y = tanh(wx)
X y = f(x,w)
Réseau de neurones profond
Pas profond: y = f(x,w) = tanh(wx)
Profond: y = tanh(w1 tanh( w2 tanh( w3 x ) ) )
Ici c'est simple: information de gauche à droite
X f(x,w)
Des années 80 à aujourd'hui
Problème: trouver les paramètres W tels que le réseau soit
intéressant. Biologiquement: renforcement synaptique.
Informatiquement: créer une mesure L(W) de la qualité de W
et faire une descente de gradient pour trouver un bon W:
L(w) =
Li(w) =
Descente de
gradient
stochastique
Des années 80 à aujourd'hui
Problème: trouver les paramètres W tels que le réseau soit
intéressant. Biologiquement: renforcement synaptique.
Informatiquement: créer une mesure L(W) de la qualité de
W et faire une descente de gradient pour trouver un bon W.
Calcul du gradient par “rétropropagation” (composition):
Exemples un par un
(ou petit groupe
par petit groupe;
“minibatches”)
L(w) =
X f(x,w)
Calcul de f(x,w)
Calcul du gradient de Li
Des années 80 à aujourd'hui
Problème: trouver les paramètres W tels que le réseau soit
intéressant. Biologiquement: renforcement synaptique.
Informatiquement: créer une mesure L(W) de la qualité de
W et faire une descente de gradient pour trouver un bon W.
Aujourd'hui: puissance de calcul + + + + +,
mais aussi meilleurs algorithmes
Exemples un par un
(ou petit groupe
par petit groupe)
L(w) =
Entrées
brutes
Sigmoide(gros nombre) ==> Gradient qui
s'annule; comment résoudre ça ?
- RELU: sigmoid(wx) → max(wx,0)
– Gradient tronqué
– normaliser adéquatement les “w” initiaux (Xavier's
initialization: std(w) = 1/racine ( degré entrant/sortant du neurone) )
Localité: neurones connectés seulement aux
neurones “locaux”
Eux, là, ben on les
connecte
pas.
lui
Et
lui
Localité: neurones connectés seulement aux
neurones “locaux” ==> convolution
Partage de
poids: plusieurs neurones
ont les mêmes poids
Certaines couches font du “max” pour être invariantes
par déplacements locaux
(un cochon en haut, c'est pareil
qu'un cochon en bas)
Max-pooling
“Dropout”: flinguez 50% de vos
neurones à chaque exemple
Mais purée pourquoi ça marche ?
Vos neurones sont bruités … et peut-être que c'est très bien comme ça.
Réseau de neurones récurrent
Réseau de
neurones
Info
Observation Action
Réseau de neurones récurrent
Texte français
Texte anglais
Info
Réseau de neurones récurrent
Caméra
Action
Info
Réseau de neurones récurrent
= réseau pas récurrent avec partage de poids
Obs1 Obs2 Obs3 Obs4
Act1 Act2 Act3 Act4
“Long short-term memory”:
jouez au lego avec vos réseaux!
“Highway network”:
jouez au lego avec vos réseaux!
Sortie = RN1(Entrée) x Entrée
+ RN2(Entrée) x RN3(Entrée)
Initialisation en faveur de
– RN1 ≈ 1 ( on “transporte” l'entrée
– RN2 ≈ 0 … sans modification )
– RN3 ≈ poids aléatoires
“Colonne neuronale”:
jouez au lego avec vos réseaux!
Entrée = image canal 1 + image canal 2 + ...
● Plusieurs neurones connectés à la même zone
==> plusieurs motifs locaux extraits
● Pareil pour les couches ultérieures
● Agencez les couches! Du max-pooling,
différentes “largeurs” de connection dans les
convolutions
Représentation
haut niveau
Waow! Algebra on images
Waow! Algebra on images
Waow, neural turing machine!
Learning to sort.
Auto-encoders: “output = input”
(représentation
compressée)
(débruitage) (moitié haute = modèle
génératif)
Waow! Jeu: un réseau qui génère des images,
un réseau qui détecte si artificielle.
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
Apprentissage
par imitation
Stratégie I
(réseau profond acteur)
Parties
humaines
de haut niveau
Stratégie II
(réseau profond acteur)
Parties (donc,
positions avec
évaluation)
Parties contre
soi-même
Apprentissage
supervisé
Critique (réseau
profond évaluant
des positions)
Ingrédients pour biaiser la
Fouille d'arbre Monte Carlo
L'intelligence artificielle
des réseaux neuronaux au Monte-Carlo
Intelligence artificielle
Monte-Carlo
Apprentissage automatique
Réseaux neuronaux
AlphaGo
Le futur
586/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
Possible ?
Les
hippopotames
jouent ils au
ping-pong ?
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
596/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Lire un livre,
répondre
à des questions,
écrire une suite,
deviner qui est
l'assassin...
A. Christie
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
606/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Décharger la voiture,
lire la notice Ikea,
aller chercher les outils
monter le meuble,
l'installer à un endroit
pertinent.
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
616/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
Ce pour quoi on est nuls!
Jouer à Intervilles,
aux échecs
ou à la boxe
(sans savoir à l'avance!)
L'avenir
Le sens commun.
La compréhension du texte.
La versatilité.
L'inconnu.
La déduction à partir de peu d'infos.
626/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page
L'avenir
Ce pour quoi on est nuls!
L'ordinateur est très
fort au jeu de Go.
Mais pour cela il joue
des millions de jours (sur
des millions d'ordinateurs!)
Difficile pour le saut
à la perche
ou le pilotage aérien!
Au revoir à tous...
==> vous allez me manquer :-)

Contenu connexe

PDF
Algorythmes et programmation
PDF
EMIGO BROCHURE
PPTX
白茶White Tea
PDF
20140901【廚房】室內裝修-最愛霧光白鄉村風廚具設計
PDF
兩岸三地50種柳鷹類辨識
PDF
20150522【談設計】壁紙+窗簾的完美配搭-美式簡約居家風
PDF
【住宅設計】淡水李公館 美式休閒風格
Algorythmes et programmation
EMIGO BROCHURE
白茶White Tea
20140901【廚房】室內裝修-最愛霧光白鄉村風廚具設計
兩岸三地50種柳鷹類辨識
20150522【談設計】壁紙+窗簾的完美配搭-美式簡約居家風
【住宅設計】淡水李公館 美式休閒風格

En vedette (12)

PDF
Lake Crest について調べてみた
PPT
Science year 3 maixing substances
PPTX
Geek Night 17.0 - Artificial Intelligence and Machine Learning
PDF
Alpha gor 2
PPT
禪與茶
PPS
White Horse Stream Ecology Park (蘇州白馬澗生態公園)
PDF
自己用電鍋做
PDF
內景婚紗照如何拍出多變風情
PDF
How DeepMind Mastered The Game Of Go
PPSX
詩詞的水墨世界
PDF
Kata Adjektif
PPTX
Alphago Tech talk
Lake Crest について調べてみた
Science year 3 maixing substances
Geek Night 17.0 - Artificial Intelligence and Machine Learning
Alpha gor 2
禪與茶
White Horse Stream Ecology Park (蘇州白馬澗生態公園)
自己用電鍋做
內景婚紗照如何拍出多變風情
How DeepMind Mastered The Game Of Go
詩詞的水墨世界
Kata Adjektif
Alphago Tech talk
Publicité

Similaire à Réseaux neuronaux profonds & intelligence artificielle (20)

PDF
14555-introduction-lintelligence-artificielle-pour-les-sciences-de-lingenieur...
PDF
GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
PDF
RapportdeStage_CNAM_RousselKevin2016
PDF
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
PPT
TPE 2005 - Intelligence artificielle
PPTX
RNN- LSTM for time series (2)lstmmm.pptx
PPTX
intelligence artificielle (IA) hamza dhaher
PDF
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
PDF
Deeplearning
PPTX
Réseaux de neurones
PDF
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
PDF
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
PDF
AI_course.pdf
PDF
QQCOQP_minijeu_Document-Navigateur_V1
PDF
coursjavaDiapo.pdf
PPTX
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
PPTX
Cassandra pour les développeurs java
PDF
Intelligence-Artificielle-cours.pdf
PDF
77618521.pdf
PPT
Les algorithmes génétiques dans tous leurs états
14555-introduction-lintelligence-artificielle-pour-les-sciences-de-lingenieur...
GraphDay Paris - Les façons dont la technologie des graphes changent l'IA & l...
RapportdeStage_CNAM_RousselKevin2016
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TPE 2005 - Intelligence artificielle
RNN- LSTM for time series (2)lstmmm.pptx
intelligence artificielle (IA) hamza dhaher
XebiCon'16 : Utiliser le Deep Learning pour interpréter des photographies par...
Deeplearning
Réseaux de neurones
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdf
I-et-Simulation jfjduzizuzgeyehebeuabzjzjzh.pdf
AI_course.pdf
QQCOQP_minijeu_Document-Navigateur_V1
coursjavaDiapo.pdf
Conception et Développement d’un Système d’Éclairage Public Intelligent à l’a...
Cassandra pour les développeurs java
Intelligence-Artificielle-cours.pdf
77618521.pdf
Les algorithmes génétiques dans tous leurs états
Publicité

Dernier (16)

PPTX
Inhibiteurs_filmogenes_ijijuhygtfrd.pptx
PDF
formation en fibre optique le support le plus .pdf
PDF
DASY : Détection Automatisée des Symptômes de jaunisse de la vigne
PPTX
1.2 Formation Evaluation Risque Professionnelle EvRP IAP 2024 - Copie.pptx
PPT
ATEX _ EXPLOSON(128 Dp)gffffffffffff.ppt
PPTX
Amélioration des propriétés mécanique_pdf.pptx
PDF
Processus-Elaboration-Projet-de-Construction.pdf
PDF
L’impression 3D dans le chaussant en 2019
PPTX
Mechanical system design used to design dental implants
PPTX
automobile3456768376363534ccessoire.pptx
PDF
Rapport_PFE_Seifeddine_ABIDI_ESPRIT_24/25
PPTX
DASY : Détection Automatisée des Symptômes de jaunisse de la vigne
PPTX
PRÉSENTATION MEMOIRE DE FIN DE FORMATION
PPTX
Introduction_au_Traitement_Image_et_ses_applications.pptx
PPTX
Amélioration des propriétés mécanique_pdf.pptx
PDF
Algorithmique et programmation Algorithmique et programmation
Inhibiteurs_filmogenes_ijijuhygtfrd.pptx
formation en fibre optique le support le plus .pdf
DASY : Détection Automatisée des Symptômes de jaunisse de la vigne
1.2 Formation Evaluation Risque Professionnelle EvRP IAP 2024 - Copie.pptx
ATEX _ EXPLOSON(128 Dp)gffffffffffff.ppt
Amélioration des propriétés mécanique_pdf.pptx
Processus-Elaboration-Projet-de-Construction.pdf
L’impression 3D dans le chaussant en 2019
Mechanical system design used to design dental implants
automobile3456768376363534ccessoire.pptx
Rapport_PFE_Seifeddine_ABIDI_ESPRIT_24/25
DASY : Détection Automatisée des Symptômes de jaunisse de la vigne
PRÉSENTATION MEMOIRE DE FIN DE FORMATION
Introduction_au_Traitement_Image_et_ses_applications.pptx
Amélioration des propriétés mécanique_pdf.pptx
Algorithmique et programmation Algorithmique et programmation

Réseaux neuronaux profonds & intelligence artificielle

  • 1. Réseaux neuronaux [email protected] Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur Merci Adventiel :-)
  • 2. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle & jeux Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 3. 36/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Deep blue vainc Kasparov, 1987 Puissance de calcul et expertise humaine
  • 4. 46/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Jeu parfait au puissance 4, 1988 Résolution par programmation (reproduire raisonnement humain)
  • 5. 56/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Backgammon, top niveau en 1992 Apprentissage autonome & réseau de neurones !
  • 6. 66/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Dames anglaises: jeu parfait atteint en 2007 Puissance de calcul et expertise humaine
  • 7. 76/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Arimaa, créé pour défier l'ordinateur - qui a gagné en 2015! Puissance de calcul et expertise humaine
  • 8. 86/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Jeux Alpha-Go et le jeu de Go Puissance de calcul, peu d'expertise humaine, apprentissage autonome, réseau de neurones.
  • 9. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 10. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 11. IA & machine learning ● Bonne vieille IA: – Axiomes – Déductions ==> Modèle > data (not dead) ● Ici on va plutôt parler machine learning: – Plein de data – Fonctions fabriquées pour bien réagir aux data ==> Data > modèle
  • 12. IA & machine learning Deux formes d'apprentissage: ● Supervisé: je te montre des situations et ce que tu dois faire dans ces situations – Reproduire comportement humain (bras robot) – Reconnaître image étiqueté (ce cochon va-t-il bien ?) ● Renforcement: je te dis “c'est bien” ou “c'est mal”, éventuellement un peu tard – Jeux (on sait si on a gagné à la fin de la partie) – Reconnaître image non-étiquetée
  • 13. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 14. Neurone Un neurone, c'est une fonction qui dépend de paramètres, comme suit: Entrée = vecteur x Paramètre = vecteur w Sortie y = tanh(w0 + w1x1 + w2x2 + … + wnxn) Vectoriel raccourci: y = tanh(wx)
  • 15. Réseau de neurones D'abord, plusieurs neurones côte à côte: Entrée = vecteur x Paramètre = matrice w Sorties y0 = tanh(w00 + w01x1 + w02x2 + … + w0nxn) … … … … yk = tanh(wk0 + wk1x1 + wk2x2 + … + wknxn) Matriciel raccourci: y = tanh(wx) X y = f(x,w)
  • 16. Réseau de neurones profond Pas profond: y = f(x,w) = tanh(wx) Profond: y = tanh(w1 tanh( w2 tanh( w3 x ) ) ) Ici c'est simple: information de gauche à droite X f(x,w)
  • 17. Des années 80 à aujourd'hui Problème: trouver les paramètres W tels que le réseau soit intéressant. Biologiquement: renforcement synaptique. Informatiquement: créer une mesure L(W) de la qualité de W et faire une descente de gradient pour trouver un bon W: L(w) = Li(w) = Descente de gradient stochastique
  • 18. Des années 80 à aujourd'hui Problème: trouver les paramètres W tels que le réseau soit intéressant. Biologiquement: renforcement synaptique. Informatiquement: créer une mesure L(W) de la qualité de W et faire une descente de gradient pour trouver un bon W. Calcul du gradient par “rétropropagation” (composition): Exemples un par un (ou petit groupe par petit groupe; “minibatches”) L(w) = X f(x,w) Calcul de f(x,w) Calcul du gradient de Li
  • 19. Des années 80 à aujourd'hui Problème: trouver les paramètres W tels que le réseau soit intéressant. Biologiquement: renforcement synaptique. Informatiquement: créer une mesure L(W) de la qualité de W et faire une descente de gradient pour trouver un bon W. Aujourd'hui: puissance de calcul + + + + +, mais aussi meilleurs algorithmes Exemples un par un (ou petit groupe par petit groupe) L(w) =
  • 21. Sigmoide(gros nombre) ==> Gradient qui s'annule; comment résoudre ça ? - RELU: sigmoid(wx) → max(wx,0) – Gradient tronqué – normaliser adéquatement les “w” initiaux (Xavier's initialization: std(w) = 1/racine ( degré entrant/sortant du neurone) )
  • 22. Localité: neurones connectés seulement aux neurones “locaux” Eux, là, ben on les connecte pas. lui Et lui
  • 23. Localité: neurones connectés seulement aux neurones “locaux” ==> convolution Partage de poids: plusieurs neurones ont les mêmes poids
  • 24. Certaines couches font du “max” pour être invariantes par déplacements locaux (un cochon en haut, c'est pareil qu'un cochon en bas) Max-pooling
  • 25. “Dropout”: flinguez 50% de vos neurones à chaque exemple Mais purée pourquoi ça marche ? Vos neurones sont bruités … et peut-être que c'est très bien comme ça.
  • 26. Réseau de neurones récurrent Réseau de neurones Info Observation Action
  • 27. Réseau de neurones récurrent Texte français Texte anglais Info
  • 28. Réseau de neurones récurrent Caméra Action Info
  • 29. Réseau de neurones récurrent = réseau pas récurrent avec partage de poids Obs1 Obs2 Obs3 Obs4 Act1 Act2 Act3 Act4
  • 30. “Long short-term memory”: jouez au lego avec vos réseaux!
  • 31. “Highway network”: jouez au lego avec vos réseaux! Sortie = RN1(Entrée) x Entrée + RN2(Entrée) x RN3(Entrée) Initialisation en faveur de – RN1 ≈ 1 ( on “transporte” l'entrée – RN2 ≈ 0 … sans modification ) – RN3 ≈ poids aléatoires
  • 32. “Colonne neuronale”: jouez au lego avec vos réseaux! Entrée = image canal 1 + image canal 2 + ... ● Plusieurs neurones connectés à la même zone ==> plusieurs motifs locaux extraits ● Pareil pour les couches ultérieures ● Agencez les couches! Du max-pooling, différentes “largeurs” de connection dans les convolutions
  • 36. Waow, neural turing machine! Learning to sort.
  • 37. Auto-encoders: “output = input” (représentation compressée) (débruitage) (moitié haute = modèle génératif)
  • 38. Waow! Jeu: un réseau qui génère des images, un réseau qui détecte si artificielle.
  • 39. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 40. Apprentissage par imitation Stratégie I (réseau profond acteur) Parties humaines de haut niveau Stratégie II (réseau profond acteur) Parties (donc, positions avec évaluation) Parties contre soi-même Apprentissage supervisé Critique (réseau profond évaluant des positions) Ingrédients pour biaiser la Fouille d'arbre Monte Carlo
  • 41. L'intelligence artificielle des réseaux neuronaux au Monte-Carlo Intelligence artificielle Monte-Carlo Apprentissage automatique Réseaux neuronaux AlphaGo Le futur
  • 42. 586/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. Possible ? Les hippopotames jouent ils au ping-pong ? L'avenir
  • 43. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 596/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Lire un livre, répondre à des questions, écrire une suite, deviner qui est l'assassin... A. Christie L'avenir
  • 44. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 606/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Décharger la voiture, lire la notice Ikea, aller chercher les outils monter le meuble, l'installer à un endroit pertinent. L'avenir
  • 45. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 616/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page Ce pour quoi on est nuls! Jouer à Intervilles, aux échecs ou à la boxe (sans savoir à l'avance!) L'avenir
  • 46. Le sens commun. La compréhension du texte. La versatilité. L'inconnu. La déduction à partir de peu d'infos. 626/5/16 Nom du document et n° de version – utiliser la fonction insérer pied de page L'avenir Ce pour quoi on est nuls! L'ordinateur est très fort au jeu de Go. Mais pour cela il joue des millions de jours (sur des millions d'ordinateurs!) Difficile pour le saut à la perche ou le pilotage aérien!
  • 47. Au revoir à tous... ==> vous allez me manquer :-)