Le 2/9, 14h-17h
Calcul non conventionnel (en général, et géométrie euclidienne et
machines à signaux en particulier)
Pour nos anciens, le calcul était avec des petits cailloux puis des
écritures ou alors géométrique. Pour nos contemporains, il est
électronique, à base de zéros et de uns. Qu'en sera-t-il pour nos
lointains descendants ? Le calcul non-conventionnel (ou unconventional
computation) explore différentes pistes pour calculer « autrement ».
Cette conférence est structurée en deux partie. La première propose un
tour d'horizon de tout ce que l'on peut trouver dans le calcul non
conventionnel. La seconde se focalise sur ce l'on peut faire à base de
géométrie euclidienne et en particulier avec des machines à signaux.
Il existe beaucoup de façons de s'éloigner de ce que l'on peut
considérer comme le calcul conventionnel qui représente, peu ou prou,
le paradigme de nos ordinateurs: but (l'interaction en non le
résultat) ou objets manipulés (réels), utilisation d'un temps non fini
(accéléré, ordinal ou continu) ou d'espace non euclidien
(hyperbolique, modèle du trou noir et espaces relativistes),
primitives disponibles (quantique, optique, solution chimique, soupe
d'ADN, membranes), automates cellulaires, auto-assemblage... Bien
entendu, ces directions ne seront qu'esquissées en tentant à chaque
fois d'en donner la saveur.
La seconde partie se focalisera sur les approches basées sur la
géométrie euclidienne: règle et compas, polyèdres, et machines à
signaux. Ce dernier modèle sera particulièrement approfondi pour
montrer ses liens avec le calcul classique, mais aussi d'autres formes
de calcul et ses propriétés particulières.
Le 3/9, 14h-17h
Graphes de terrain : Problématiques générales et cas de la métrologie de l'internet
De nombreux objets peuvent être modélisés par des graphes : divers types de réseaux
sociaux en ligne ou non, pages web et liens entre elles, réseaux de transport,
etc. Depuis la fin des années 90, il est apparu que ces graphes ont des propriétés
communes, et que des questions similaires se posent à leur sujet. Ceci a engendré
un courant de recherche important visant à mieux comprendre ces réseaux, identifier
automatiquement les éléments importants de leur structure, et capturer leurs propriétés
dans des modèles permettant entre autres d'effectuer des simulations.
Ce cours présentera un aperçu du domaine et des grandes questions qui se posent,
puis se focalisera sur le cas particulier de la métrologie de l'internet.
En effet, dans la majorité des cas, on n'a pas de connaissance globale du graphe
et on doit l'acquérir par des opérations de mesure qui ne permettent que d'obtenir
des informations partielles sur les sommets et les arêtes du graphe.
Des travaux ont montré que, dans le cas de l'internet, ces informations peuvent
être biaisées, c'est-à-dire que le graphe obtenu par la mesure ne ressemblerait pas
au vrai graphe.
Le 4/9, 14h-17h
Simulation multi-agents (1)
(2)
Après un bref historique de la discipline, nous décrirons les
avantages d'une approche centrée individus pour la simulation de
systèmes complexes relativement aux approches plus classiques, centrées
groupes. Nous présenterons ensuite les travaux qui ont amené peu à peu
à la réalisation de systèmes multi-agents, outil aujourd'hui
privilégié pour ce type de simulation dans laquelle la notion de
comportement est prépondérante. Pour illustrer notre propos nous
décrirons quelques modèles représentatifs de la communauté. Enfin,
nous présenterons une méthodologie de conception centrée sur les
interactions entre individus et quelques applications réalisées avec
cette approche.
Le 8/9, 14h-17h
Modélisation linguistique
Entre philosophie du langage et traitement automatique des langues
naturelles, les besoins de modélisation de la langue ont suscité le
développement de nombreux formalismes utilisés en
informatique. L'exposé offre un aperçu et un historique des différents
domaines en linguistique théorique avant de se centrer sur la syntaxe
et la sémantique et leur modélisation.
Le 9/9, 9h15-10h45
Les nombres et l'ordinateur
Nous confions à nos ordinateurs de nombreux calculs (météo,
simulations aéronautiques, jeux vidéos, feuilles Excel...) et nous
considérons naturellement que l'ordinateur fournira une réponse juste.
Malheureusement, la machine a ses limites que l'esprit humain n'a
pas. Elle utilise une arithmétique dite flottante qui a ses
contraintes. D'une part chaque calcul est effectué avec un certain
nombre de chiffres (souvent environ 15 chiffres décimaux) et donc
chaque calcul peut créer une erreur, certes faible, mais qui peut
s'accumuler avec les précédentes pour fournir un résultat complètement
faux. D'autre part, les valeurs que l'ordinateur appréhende ont des
limites vers l'infiniment petit et l'infiniment grand. Hors de ces
bornes, l'ordinateur produit des valeurs spéciales souvent
inattendues. Cet exposé montrera que l'ordinateur n'est pas
infaillible ou plutôt que son utilisation est parfois abusive.
Le 10/9, 14h-17h
Méthodologies d'expérimentation pour l'informatique
distribuée à large échelle
Bien qu'omniprésents dans notre société, les systèmes informatiques
distribués de très grande taille restent extrêmement difficiles à
étudier et à évaluer. Grilles, clusters, clouds, systèmes P2P ou HPC
posent un défi méthodologique nouveau en architecture des systèmes
informatiques : l'approche réductionniste visant à expliquer
théoriquement le système au travers des interactions entre ses parties
ne suffit plus à appréhender la complexité de ces systèmes. L'approche
expérimentale s'impose alors avec une force nouvelle.
Malheureusement, aucune méthodologie expérimentale n'est entièrement
suffisante pour étudier la correction et les performances de systèmes
distribués à large échelle. Expérimentation directe, Simulation,
Emulation ou Vérification dynamique présentent chacune des avantages
propres, il serait nécessaire de les combiner pour analyser les
systèmes étudiés de façon pertinente.
Après une courte introduction de ces différentes méthodologies, nous
aborderons tout d'abord les problèmes de modélisation inhérent à ces
approches, et nous verrons comment les résoudre nous demande
d'appliquer une approche méthodologique inspirée de la physique. Dans
un second temps, nous parlerons de la performance des simulateurs des
DES (Discrete-Event Systems), couramment utilisés dans ce domaine.
Enfin, nous verrons comment faire converger simulation et vérification
dynamique afin de d'établir de manière formelle des propriétés de
sûreté ou de vivacité sur des systèmes distribués telles que des
applications MPI réelles.
Le 11/9, 14h-17h
Some aspects of information theory for a computer scientist
Information theory appeared in the middle of the 20th as the adequate foundation of point to point
communications. It offers powerful concepts both for data compression, storage, and data transmission.
This lecture will give a simple and intuitive introduction to some of these concepts, like entropy,
mutual information, etc, and will illustrate the relevance of limit theorems on data compression
(with or without losses), data transmission, secret protection, etc.
The second part will examine more recent developments, that aim
at adapting the theory to multi-user settings.
We will describe the amazing Slepian-Wolf theorem, that allow for optimal multi-user data compression
without communication. Some other fashionable topics will be addressed,
like distributed peer-to-peer storage or fountain codes.
The lecture will conclude on some challenging open questions for computer scientists.
Contacter le Département InformatiqueDernières modifications : le 15/09/2014