Upload
liege-creative
View
65
Download
0
Embed Size (px)
Citation preview
Nicolas Petit, Professeur, ULg - Faculté de Droit
Pierre Wolper, Professeur, Doyen, ULg - Faculté des Sciences Appliquées
Vendredi 24 février
Intelligence artificielle, quelles réponses législatives ?
LIEGE CREATIVE, en partenariat avec :
Une brève introduction à l’intelligence artificielle
Pierre WolperUniversité de Liège
1
L’intelligence Artificielle : une définition ?
Construire des machines qui ont un comportement intelligent
• Machines ? Ordinateurs numériques !
• Comportement intelligent, intelligence ?
2
Intelligence ? Analysons la bêtise
• Etre obstiné,• Ne pas exploiter l’information
disponible, ne pas tenir compte de son environnement,• Ne pas analyser les conséquences de ses
actions,• Ne pas apprendre de ses expériences et
de celles des autres.3
Caractéristiques de l’intelligence
• Flexibilité, adaptabilité,• Exploiter l’information sous toutes ses
formes (vision, sons, textes, …)• Raisonner et planifier,• Apprentissage et accumulation de
connaissances et d’expériences.
4
Le test de Turing (1950)
5
The imitation game• Une machine peut-elle se faire passer pour un
humain ? (Communication par clavier et écran uniquement)
• Faiblesses :• Communication limitée au langage,• La référence est l’intelligence humaine,• La machine pourrait être trop performante pour
certaines fonctions,• Se faire passer pour un humain, n’est pas
nécessairement être intelligent.
L’IA en pratique
6
• Des capacités dans un domaine particulier et pour une tâche spécifique sont souvent suffisantes.• Une fois que l’on comprend comment traiter
une question, on ne considère plus qu’elle nécessite de l’intelligence.
Les progrès de rupture récents
7
• Capacités des machines (vitesse, mémoire),• Capteurs et actuateurs (Robotique)• Disponibilité d’informations les plus
diverses (internet),• Méthodes d’apprentissage automatique sont
devenues très performantes.
L’ apprentissage(Supervisé)
Classification d’images• Une image est un tableau de pixels.• On définit une fonction paramétrée des
pixels, par exemple
• En utilisant des images pour lesquelles la classification est connue, on ajuste les paramètres de façon à séparer les classes.
8
αij p(i, j)ij∑
9
Classification d’images• Pour les images cette approche simple ne
fonctionne pas.• Il est nécessaire d’extraire des « caractéristiques »
de l’image pour réduire la dimension des données et se focaliser sur ce qui est important.
• Définir et extraire des « caractéristiques » est difficile.
10
Avancée de rupture: l’apprentissage profond
L’apprentissage profond(deep learning)
• Étager l’apprentissage:
11
• Il est aussi possible d’apprendre les « caractéristiques » !
Applications de l’apprentissage
• Reconnaître la parole, la musique, du texte.
• Classer des images, reconnaître des visages.
• Jeu de GO.• Vision, robotique, véhicules autonomes,
drones.
12
13
Un joueur impressionnant
Une victoire de la machine
14
Une voiture autonome
15
L’avenir ?• Systèmes aux capacités étonnantes,• Automatisation de tâches manuelles ou
intellectuelles,• Pas encore de machines à l’intelligence
« générale »• Il y a plus dangereux que les machines
16
Intelligence artificielle, quelles réponses législatives ?
Prof. Nicolas Petit ©, Université de Liège (ULg)
Maison des sciences de l’homme, 24 février 2017
www.lcii.eu
Résolution du PE, 16 février 2017
www.lcii.eu
Contexte
} Techno-optimistes
} Techno-pessimistes
} Techno-humanistes
www.lcii.eu
Menu
Objectifs} Perspective
} Assistance à l’arbitrage régulatoire
Plan1. Application à la responsabilité
des IA et de la robotique
2. Défis de la régulation face à l’émergence des IA et de la robotique
3. Bonnes pratiques régulatoiresface à l’émergence des IA et de la robotique
III. Responsabilité, IA et robotique
www.lcii.eu
A. Position du problème en droit
} Reprocher, c’est imputer => qui paye?
} Imputabilité en droit belge
} L’auteur => article 1382cc
} Le gardien de la chose ou de la personne => article 1384cc
} Le fabricant => loi du 25 février 1991
www.lcii.eu
B. Limites du droit positif?
} Droit strict, mais contexte évolutif
} Erosion/explosion de l’imputabilité?
} Erosion du fait des robots autonomes et ouverts: pas de garde, pas d’usage normal (//couteau suisse)
} Explosion du fait des robots ouverts: multiplication des dommages, et fabricants incapables de pouvoir prévenir tout risque en usage normal; concentration des fabricants sur les robots spécialisés? => immunité?
} Distribution inefficiente de l’imputabilité?
} Théorème de Coase
www.lcii.eu
} Si la loi dit que B jouit d’un droit à la quiétude nocturne, A fera rénover son robot => coût 5000€
} Si le droit décide que A est libre de faire ce qu’il veut, B paiera 5000€ à A pour qu’il fasse rénover son robot, plutôt que d’installer du double vitrage
} Quand la négociation n’est pas possible, allocation au « cheapest cost avoider »
} Quid des programmeurs? C, D et E?
HYPO
} A utilise un robot jardinier pour irriguer son exploitation agricole la nuit
} B ouvre un hôtel sur le terrain adjacent
} Litige} Options
} A fait rénover son robot, et il lui en coûte 5000€.
} B installe du double vitrage, et il lui en coûte 10000€
www.lcii.eu
C. Propositions du PE
} Création d’un régime d’assurance obligatoire pour certaines catégories de robots, à charge des fabricants et des propriétaires
} Fond de compensation chargé de garantir un dédommagement faute de couverture assurantielle
} Versement forfaitaire lors de la mise sur le marché du robot et des versements réguliers tout au long de la vie du robot
} Responsabilité limité en cas de contribution au fond ou de couverture assurantielle volontaire
} Numéro d’immatriculation individuel et registre spécifique de l’Union (permettant de connaître la nature du fonds et des contributions)
} Personnalité juridique spécifique pour les robots les plus autonomes, afin de les déclarer responsables
II. Défis de la régulation face à l’émergence des IAs et robots
www.lcii.eu
Ecueils usuels
1. Régulation incapacitante (disabling regulation)
2. Régulation impulsive (knee-jerk regulation)
3. Appât de la rente et capture (rent seeking)
4. Dilemme de Collingridge
www.lcii.eu
III. Bonnes pratiques régulatoires face à l’émergence technologique des IAs et robots
www.lcii.eu
Cadre
} Externalités sporadiques
} Positives (« digital half »)
} Négatives (crash d’un drone)
} Externalités systémiques
} Positives (trafic, congestion, pollution)
} Négatives (emploi, vie privée, cyber sécurité)
} Existernalités
} Positives (amélioration de la vie, conquête spatiale)
} Négatives (guerre totale, déshumanisation kantienne, superintelligence)
www.lcii.eu
Bonnes pratiques?
} Déléguer la résolution des externalités sporadiques à l’infrastructure juridique de base, c’est-à-dire aux cours et tribunaux agissant a posteriorisur le fondement du droit commun de la responsabilité délictuelle et contractuelle, ainsi que du droit de propriété.
} Anticiper la résolution des externalités systémiques par des systèmes de régulation a priori. } Pour obvier au dilemme de Collingridge, organiser, autant que faire se
peut une expérimentation préalable, condition sine qua non à la mesure précise des effets potentiels de la technologie.
} Selon les résultats des études d’impact, réguler ou déléguer.
} Ce système équilibre intervention ex ante et ex post.
} Soumettre a priori à délibération collective les problématiques d’existernalité, et ce sans expérimentation préalable.
www.lcii.eu
Cadre
CONTENTIEUX (ex post)
REGULATION(ex ante)
EXPERIMENTATION
METHODE
Extsporadiques
ü × Inhérente Expertise
Ext systémiques
× ü Possible Expertise
Existernalités × ü impossible Choix social
www.lcii.eu
www.lcii.eu
Il y a plus dangereux que les machines!
Liege Competition and Innovation Institute (LCII)University of Liege (ULg)
Quartier Agora | Place des Orateurs, 1, Bât. B 33, 4000 Liege, BELGIUM
Twitter: @CompetitionProf