-
Notifications
You must be signed in to change notification settings - Fork 0
/
problemes-ethiques-legaux-intelligence-artificielle.html
255 lines (181 loc) · 12 KB
/
problemes-ethiques-legaux-intelligence-artificielle.html
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
<!DOCTYPE html>
<html>
<head>
<title>Problèmes éthiques et légaux liés à l'Intelligence Artificielle</title>
<meta name="description" content="Problèmes éthiques et légaux liés à l'Intelligence Artificielle">
<meta name="Keywords" content="intelligence artificielle,a i intelligence artificielle,l intelligence artificielle,intelligence artificielle définition,intelligence artificielle film
,film intelligence artificielle,définition intelligence artificielle,intelligence artificielle danger,intelligence artificielle google,robot intelligence artificielle, ia,ai,tpe intelligence artificielle,dossier intelligence artificielle,peur intelligence artificielle,IA,AI">
<link href="style.css" rel="stylesheet" type="text/css">
<link href="2.css" rel="stylesheet" type="text/css">
<link href="3.css" rel="stylesheet" type="text/css">
<meta charset="utf-8">
<link href="favicon.ico" rel="icon">
</head>
<body>
<!-- MENU FIXE EN HAUT -->
<ul class="navbar">
<li>
<a href="index.html">L' I.A</a>
</li>
<li>
<a href="chronologie-intelligence-artificielle.html">Une brève chronologie</a>
</li>
<li>
<a href="avantages-intelligence-artificielle.html">Avantages</a>
</li>
<li>
<a href="limites-dangers-intelligence-artificielle.html">Limites et dangers</a>
</li>
<li>
<a href="problemes-ethiques-legaux-intelligence-artificielle.html">Problèmes éthiques et légaux</a>
</li>
<li>
<a href="l-intelligence-artificielle-faut-il-en-avoir-peur.html">Conclusion</a>
</li>
<li style="float:right;">
<a href="ENG/3E.html">EN</a>
</li>
</ul>
<!-- MENU FLOTANT SUR LE COTE -->
<div id="menu">
<ul>
<li><button><span class="circle"></span> <span class="title"><a href="index.html">Introduction</a></span></button>
</li>
<li><button><span class="circle"></span> <span class="title"><a href="chronologie-intelligence-artificielle.html">Une brève chronologie</a></span></button>
</li>
<li><button><span class="circle"></span> <span class="title"><a href="avantages-intelligence-artificielle.html">Avantages de l'IA</a></span></button>
</li>
<li><button><span class="circle"></span> <span class="title"><a href="limites-dangers-intelligence-artificielle.html">Limites et dangers de l'IA</a></span></button>
</li>
<li><button><span class="circle"></span> <span class="title"><a href="problemes-ethiques-legaux-intelligence-artificielle.html">Problèmes éthiques et légaux</a></span></button>
</li>
<li><button><span class="circle"></span> <span class="title"><a href="l-intelligence-artificielle-faut-il-en-avoir-peur.html">Conclusion</a></span></button>
</li>
</ul>
</div>
</div>
<!-- FIL D'ARIANNE -->
<div class="in">
<p style="background-color: white;font-size:12px;"><a href="index.html">Accueil</a> > Problèmes éthiques et légaux liés à l'IA</p>
<br>
<script async src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js"></script>
<!-- Bannière -->
<ins class="adsbygoogle"
style="display:block"
data-ad-client="ca-pub-7947691393475660"
data-ad-slot="3681503879"
data-ad-format="auto"
data-full-width-responsive="true"></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>
<br>
</div>
<!-- CONTENUE PARTIE 3 -->
<div class="in">
<h1 class="ex">III. Problèmes éthiques et légaux liés à l'IA</h1>
<h2 class="ex">1. Origines des lois de la robotique</h2>
<p class="out"><img class="notin" src="imgs/problemes/odysee.jpg" style="width:30%; float:left"> Très rapidement, les robots ont été considérés par les humains comme un danger potentiel. L'hypothèse d'un robot se rebellant contre les humains a été soulevée par Stanley Kubrick dans son film 2001, l'Odyssée de l'Espace dès 1968, mais à l'époque ceci n'était que de la science fiction.<br></p>
<p class="out"><img class="notin" src="imgs/problemes/vicieux.jpg" style="width:30%;float:right"> Isaac Asimov avait édicté les trois lois de la robotique afin de calmer les craintes de l'Homme ordinaire envers la « machine ». Il les exposa pour la première fois dans sa nouvelle Cercle vicieux en 1942 :<br>
<!-- TABLEAU --></p>
<table>
<tr>
<td>Première loi</td>
<td>Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger.</td>
</tr>
<tr>
<td>Deuxième loi</td>
<td>Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi.</td>
</tr>
<tr>
<td>Troisième loi</td>
<td>Un robot doit protéger son existence dans la mesure ou cette protection n'est pas en contradiction avec la première ou la deuxième loi.</td>
</tr>
</table>
<p></p>
<p class="out"><img class="notin" src="imgs/problemes/irobot.jpg" style="width:30%;float:right"> Ces 3 lois ont par la suite été reprises dans le film I,Robot de Alex Proyas en 2004.<br></p>
<p class="out">Un autre exemple de robots devenant autonomes et se rebellant contre les humains apparaît également dans Real Humans, série télévisée de Lars Lundström en 2012.<br>
<img class="notin" src="imgs/problemes/realhumans.jpg" style="width:30%;float:left"><br>
Person of Interest, série télévisée, évoque également les dangers d'une machine qui deviendrait autonome.<br>
<br>
<img class="notin" src="imgs/problemes/interest.jpg" style="width:30%"> Ainsi, bien qu'issues de la science fiction, ces trois lois sont toujours reconnues par la communauté scientifique.<br>
<img class="notin" src="imgs/problemes/asimov.jpg" style="width:30%"> Asimov était parfaitement conscient des limites de ses trois lois, d'autant qu'il les avait conçues de manière à profiter de leurs faiblesses. Assez rapidement, dès 1950, il en pointa certaines limites, en particulier concernant la première loi qui protège l'humain en tant qu'individu et non en tant qu'espèce. En effet, il serait préférable en toute logique de sacrifier un individu si cela pouvait permettre de sauver un groupe plus important, sinon l'humanité tout entière. Malgré cette prise de conscience précoce, ce n'est qu'en 1985 qu'il intégra cette idée en modifiant les lois. Il ajouta aux trois lois une loi zéro qui plaçait l'intérêt de l'humanité au-dessus de celui d'un seul individu :<br>
<br></p>
<table style="padding-left: 12%;">
<tr>
<td>Loi zéro</td>
<td>un robot ne peut nuire à l'humanité ni laisser sans assistance l'humanité en danger.</td>
</tr>
</table>
<p class="out">Si Asimov était fier de ses lois de la robotique, c'est qu'elles représentaient pour lui un code moral et déontologique, établi non seulement pour les robots et leurs créateurs, mais aussi et surtout pour tous les scientifiques.<br>
<br></p>
<br>
<script async src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js"></script>
<!-- Bannière -->
<ins class="adsbygoogle"
style="display:block"
data-ad-client="ca-pub-7947691393475660"
data-ad-slot="3681503879"
data-ad-format="auto"
data-full-width-responsive="true"></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>
<br>
<h2 class="ex">2. L'aspect législatif</h2>
<h3 class="ex">a) Nécessité d'une réflexion éthique et d'une législation</h3>
<p class="out">En raison des risques précédemment cités, il est important de légiférer en matière d'IA.<br>
<br>
La robotique militaire est en plein essor, les drones armés se généralisent et deviennent de plus en plus autonomes. Les trois lois de la robotique sont là pour rappeler aux scientifiques leurs responsabilités. Les robots militaires tueurs ne peuvent pas, par définition, être conformes à la première loi. Dans ce contexte, une réflexion éthique est donc nécessaire pour éviter à la robotique un développement aveugle. En ce sens, les trois lois d'Asimov gardent toute leur pertinence.<br>
<br>
Chaque jour de nouvelles innovations naissent, soulevant de nouvelles questions. C'est le cas pour les automatismes de plus en plus nombreux dans les cockpits d'avions.<br>
<img class="notin" src="imgs/problemes/cockpit.jpg" style="width:90%"></p>
<div class="quote">
<span class="guillemets">❝</span>
<p>« Transformer l'avion en drone et le ramener au sol en cas d'incapacité des deux pilotes (acte terroriste, par exemple) est techniquement imaginable, mais pose de nombreux problèmes. Sera-t-on sûr que c'est bien la compagnie aérienne qui en prend le contrôle depuis le sol ? Sur quel aéroport le faire atterrir ? Est-ce possible dans toutes les régions du monde ? »</p>
<br>
<br>
</div>
<br>
<script async src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js"></script>
<!-- Bannière -->
<ins class="adsbygoogle"
style="display:block"
data-ad-client="ca-pub-7947691393475660"
data-ad-slot="3681503879"
data-ad-format="auto"
data-full-width-responsive="true"></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>
<br>
<p><img class="notin" src="imgs/problemes/parlement.jpg" style="width:90%"> Le Parlement européen a mis sur pied un rapport pour faire face au développement de l'IA.<br>
Selon ce rapport, l'automatisation aura un impact largement positif sur la société mais cet impact doit être surveillé, notamment en ce qui concerne l'évolution du marché du travail et la répartition de la richesse. Il faut garder un œil sur les usages militaires, notamment ceux des nations extérieures à l'Union européenne. La nécessité de mettre en place un accord mondial dès que possible a été évoquée.<br>
<br>
Il faut standardiser et réguler non seulement pour éviter d'éventuelles dérives et préparer le terrain pour le futur, mais aussi pour permettre un développement des technologies dès aujourd'hui. Le parfait exemple est le véhicule autonome. "On ne peut pas demander aux industriels d'avoir 28 procédures et 28 versions de leurs logiciels pour chaque pays de l'Union, avec la voiture qui redémarre à la frontière," a déclaré Roberto Viola, directeur général de DG Connect.<br>
<br></p>
<h3 class="ex">b) Les grandes lignes du rapport du Parlement Européen</h3>
<p class="out">La question de la responsabilité civile et juridique en cas d'accident :<br>
<br>
- L'idée d'un statut juridique de "personne électronique", est une piste pour d'éventuels futurs systèmes disposant d'une autonomie et d'une capacité d'apprentissage très développées.<br>
-Un robot ou une IA reste un outil. La responsabilité est celle de son fabricant et de celui qui l'utilise.<br>
A l'heure actuelle, entre 80 et 93% des accidents de la route sont dûs à des erreurs humaines. L'automatisation est donc fortement souhaitable, mais impliquera une responsabilité accrue des constructeurs, en particulier sur l'aspect logiciel.<br>
<br>
L'impact sur l'emploi :<br>
<br>
Des destructions d'emplois sont à prévoir mais elles seront compensées par d'autres emplois créés en retour. Il peut y avoir un déséquilibre entre les destructions et les créations d'emploi et une répartition très inégale de la richesse.<br>
Une taxe sur les robots a été introduite pour compenser les pertes d'emplois.</p>
</div>
<div class="in">
<div class="read">
<a href="l-intelligence-artificielle-faut-il-en-avoir-peur.html">Lire la suite <span class="arrow">→</span></a>
</div>
</div>
<div id="footer">
<div class="in">
<a href="contact.html">Contact</a> <a href="sources.html">Sources</a><br>
<a href="https://github.com/Weamix" target="_blank">© Projet tutoré à l'IUT de Calais en 2018 fait par Vitse Maxime, Goguillon Olivia et Dufour Victor</a>
</div>
</div>
</body>
</html>