Aller au contenu

Intelligence artificielle, risques réels...


C02

Messages recommandés

Un rapport (du 20 février dernier) alerte sur les risques d’utilisation malveillante de l’intelligence artificielle. Les auteurs, vingt-six experts, évoquent la facilitation de la manipulation des élections, l’accentuation de la cybercriminalité ou l’utilisation de drones à des fins terroristes :

 

http://www.lemonde.fr/pixels/article/2018/02/21/un-rapport-alerte-sur-les-risques-pour-l-intelligence-artificielle-de-tomber-entre-de-mauvaises-mains_5259984_4408996.html

 

Un article du Guardian cite ce même rapport ainsi que celui d'AI Now Institute (University of New York) : Killer robots remain a thing of futuristic nightmare. The real threat from artificial intelligence is far more immediate

 

https://www.theguardian.com/commentisfree/2018/feb/25/artificial-intelligence-going-bad-futuristic-nightmare-real-threat-more-current

 

Le site d'AI Now Institute :

 

https://ainowinstitute.org/

 

Le site de l'AFCIA, Association Française Contre l'Intelligence Artificielle :

 

http://afcia-association.fr/

 

Et plus généraliste, le site du Future of Life Institute :

 

https://futureoflife.org/

 

Bonnes lectures, et bonnes réflexions...

  • J'aime 1
Lien vers le commentaire
Partager sur d’autres sites

  • 3 semaines plus tard...
Posté (modifié)

https://futurism.com/openai-safe-ai-michael-page/

 

Traduction Google Trad non corrigée :

 

OpenAI veut rendre l'IA sûre, mais cela peut être une tâche impossible

 

" En bref : Nous savons qu'une véritable intelligence artificielle est à l'horizon, et un certain nombre d'organisations essaient de comprendre comment nous pouvons nous en protéger. Cependant, les réponses sont insaisissables.

 

La véritable intelligence artificielle est en route, et nous ne sommes pas prêts pour cela. Tout comme nos ancêtres avaient du mal à tout visualiser de la voiture moderne à la naissance de l'ordinateur, il est difficile pour la plupart des gens d'imaginer combien une technologie vraiment intelligente pourrait changer nos vies dès la prochaine décennie - et combien nous pourrions perdre si L'IA échappe à notre contrôle.

 

Heureusement, il y a une ligue d'individus qui travaillent pour s'assurer que la naissance de l'intelligence artificielle n'est pas la mort de l'humanité. De l'Institut Future of Life de Max Tegmark à la Future Society de la Harvard Kennedy School of Government, les experts les plus renommés du monde unissent leurs forces pour s'attaquer à l'un des progrès technologiques les plus perturbateurs auxquels l'humanité sera confrontée.

Peut-être l'organisation la plus célèbre à naître de cette menace existentielle est OpenAI. Il est soutenu par certains des noms les plus respectés de l'industrie: Elon Musk, le milliardaire SpaceX qui a fondé Open AI, mais a quitté le conseil cette année pour éviter les conflits d'intérêts avec Tesla; Sam Altman, le président de Y Combinator; et Peter Thiel, de renommée PayPal, pour n'en nommer que quelques-uns. Si quelqu'un a une chance d'assurer le futur de l'humanité, c'est OpenAI.

 

Mais il y a un problème. Quand il s'agit de créer une IA sécurisée et de réguler cette technologie, ces grands esprits ont peu d'idée de ce qu'ils font. Ils ne savent même pas par où commencer.


L'aube d'une nouvelle bataille

 

En voyageant à Dubaï, j'ai rencontré Michael Page, le conseiller politique et éthique d'OpenAI. Sous les gratte-ciel étincelants de la «ville du futur» autoproclamée, il me dit l'incertitude à laquelle il fait face. Il a parlé des questions qui n'ont pas de réponses, et du prix incroyablement élevé que nous paierons si nous ne les trouvons pas.

La conversation a commencé quand j'ai interrogé Page sur son rôle à OpenAI. Il a répondu que son travail consiste à «examiner les implications politiques à long terme de l'IA avancée.» Si vous pensez que cela semble un peu intangible et mal défini, vous n'êtes pas le seul. J'ai demandé à Page ce que cela signifie, pratiquement parlant. Il a été franc dans sa réponse: "J'essaie toujours de comprendre cela."
 

Page a tenté de brosser un meilleur tableau de l'état actuel des choses en notant que, puisque la véritable intelligence artificielle n'existe pas encore, son travail est un peu plus difficile que l'ordinaire.

Il a noté que, lorsque les experts politiques se demandent comment protéger le monde contre l'IA, ils essaient vraiment de prédire l'avenir. Ils essaient, comme il le dit, de «trouver les modes d'échec ... trouver s'il y a des cours que nous pourrions prendre aujourd'hui qui pourraient nous mettre dans une position dont nous ne pouvons pas sortir.» En bref, ces experts sont essayer de sauvegarder le monde de demain en anticipant les problèmes et en agissant aujourd'hui. Le problème est qu'ils peuvent être confrontés à une tâche impossible.

 

Page est pleinement conscient de cette possibilité inconfortable, et l'admet volontiers. "Je veux savoir ce que nous pouvons faire aujourd'hui, si quelque chose. Il se pourrait que l'avenir soit si incertain que nous ne pouvons rien faire ", a-t-il déclaré.

 

Nos problèmes ne s'arrêtent pas là. Il est également possible que nous comprenions ce que nous devions faire pour nous protéger des menaces d'AI, et que nous réalisions que nous ne pouvions tout simplement pas le faire. "Il se pourrait que, bien que nous puissions prédire l'avenir, nous ne pouvons pas faire grand chose car la technologie est trop immature", a déclaré M. Page.

 

Ce manque de clarté n'est pas vraiment surprenant, étant donné la jeunesse de cette industrie. Nous sommes toujours au début, et tout ce que nous avons sont des prédictions et des questions. Page et ses collègues essaient encore d'articuler le problème qu'ils tentent de résoudre, de déterminer quelles compétences nous devons apporter à la table, et ce que les décideurs devront faire dans le jeu.

En tant que tel, lorsqu'on lui a demandé une prédiction concrète de l'endroit où l'humanité et l'IA seront ensemble dans une année, ou dans cinq ans, Page n'a pas offert de faux espoirs: "Je n'en ai aucune idée", a-t-il dit.

 

Cependant, Page et OpenAI ne sont pas les seuls à travailler sur la recherche de solutions. Il espère donc que de telles solutions pourront être apportées: "J'espère que dans une année, j'aurai une réponse. Espérons que dans cinq ans, des milliers de personnes penseront à cela ", a déclaré M. Page.

 

Eh bien, il est peut-être temps que nous prenions tous nos casquettes de réflexion."  ( get our thinking caps on : réfléchir sérieusement au problème)

 

maxresdefault.jpg

 

Le site d'Open AI : https://openai.com/

Modifié par C02
Lien vers le commentaire
Partager sur d’autres sites

Posté (modifié)

Hello,

 

Je n'avais pas vu ça ! (merci pour l'info)

Je balance 2 liens :

L’assistant Amazon Alexa rigole tout seul, le bug qui terrifie l’Amérique :

https://www.numerama.com/tech/334443-lassistant-amazon-alexa-rigole-tout-seul-le-bug-qui-terrifie-lamerique.html

https://www.presse-citron.net/alexa-a-petit-probleme-reconnait-amazon-y-a-de-quoi-flipper/

 

Ça me fait penser au rire un peu effrayant de Jeff Bezos...

 

 

Modifié par C02
oublié de dire merci pour l'info
Lien vers le commentaire
Partager sur d’autres sites

 

Bonjour.

 

Ce sujet est intéressant.

 

Elon Musk craint que l’on ne devienne un jour le sujet des machines…

Après, je suis très méfiant quant à ses propres desseins qui ne sont pas plus net que le sky.

Un petit article que j’ai survolé à son propos.

IA, me fait penser au « soulèvement des machines » après « la planète des singes » et toutes ses étapes.

 

Dans l’ordre chronologique d’une telle (r)évolution, je proposerai « le soulèvement de l’humanité ».

Lien vers le commentaire
Partager sur d’autres sites

il y a 4 minutes, bang*gib a dit :

Un petit article que j’ai survolé à son propos.

 

 Salut, tu as un lien ?

 

C'est vrai que Musk est plutôt partie prenante dans le développement de l'IA, entre les bagnoles autonomes et sa société Neuralink.

Son but est de fusionner l'homme et la machine, pour garder le contrôle...

Pas trop convaincu.

 

Un lien sympa sur le projet Neuralink : https://waitbutwhy.com/2017/04/neuralink.html

Lien vers le commentaire
Partager sur d’autres sites

il y a 8 minutes, C02 a dit :

 Salut, tu as un lien ?

 

 

 Zut,j'ai changé de PC et j'ai oublié le lien.

Désolé je l'enverrai cet après midi ou ce soir.

 

Mais j'en ai un autre en attendant.

 

https://www.journaldugeek.com/2017/11/23/elon-musk-chances-de-survivre-face-a-une-intelligence-artificielle/

Lien vers le commentaire
Partager sur d’autres sites

Posté (modifié)
il y a 38 minutes, snake59 a dit :

Perso , avec le temps , j aurais plus peur d un beau réveil de yellowstone , que des ordi qui se mettent chef a la place du chef 😂

 

On peut aussi s'inquiéter du réchauffement climatique, de la maladie X, et de je ne sais quelle autre saloperie qui nous pend au nez tout aussi bien, mais là on cause IA, et je ne crois pas qu'il faille négliger le problème et ramener ça à une blagounette à la Iznogood.

Mais c'est peut être ta façon d'évacuer le stress... ;-)

 

J'ai tendance à redouter davantage les phénomènes à courbe exponentielle avec effet de seuil, dont à mon avis le développement de l'IA fait partie.

La singularité, si elle se produit, pourrait être plus radicale que les conséquences d'un super volcan qui pète.

 

https://fr.wikipedia.org/wiki/Singularité_technologique

 

Quelques courbes ci après (voir "Comment tout peut s'effondrer" de Pablo Servigne et Raphaël Stevens)

 

image.png.fa6994d2e1fb8c38a4fff1898fbac963.png

 

image.thumb.png.156ec0d50570063b4a1fc7912e35e3f0.png

image.thumb.png.1d3e791aede452861b4a108d73fa8d2a.png

Modifié par C02
Lien vers le commentaire
Partager sur d’autres sites

Il y a 6 heures, bang*gib a dit :

Zut,j'ai changé de PC et j'ai oublié le lien.

Désolé je l'enverrai cet après midi ou ce soir.

  

Voilà :

 

https://www.letemps.ch/opinions/lhomme-augmente-selon-elon-musk

 

Je reviendrai...:be:

 

Pour être  sérieux c'est vrai je suis occupé sur un autre PC (sauvegarde).

 

Lien vers le commentaire
Partager sur d’autres sites

Co2 , je ne minimise pas seulement juste une question , cote probabilité ,que ferais une ia face a une eruption solaire avec tempete magnétique g 5 ou plus  , comme il as deja eu en 1889, au temps.des  télégraphe , basé sur l électricité tout les systemes en prendrai un coup .

La je parle d un fait réel , une ia contrairement a nous s en releverai pas mem si quelque part , l  ia résiste elle perdra la plus part de ses systèmes donc sont controle ne seras plus total , vive nous moi je dis 🙌🙌

Lien vers le commentaire
Partager sur d’autres sites

Je precise que je prends l exemple de la tempête magnetique  ( ,point faible des ia ) , parce que plus haut j ai pris l exemple du yellowstone pour l homme , je fais pas de jaloux comme sa 😄😄 

Lien vers le commentaire
Partager sur d’autres sites

Posté (modifié)

Ok. Mais les catastrophes naturelles qui nous menacent, ou celles qui menaceraient l'IA, c'était pas le sujet de ce fil.

 

Le Yellowstone, ça aurait pu péter hier, ou ça pourrait péter dans 10000 ans.

Et on n'y peut rien.

 

L'IA, c'est maintenant, et des conséquences à l'échéance du demi siècle possiblement, aussi bien selon ceux qui s'en rejouissent que pour ceux qui s'en méfient.

 

Et il est encore (peut-être) possible de s'emparer du problème avant qu'il ne soit trop tard pour agir.

Parce que contrairement à une eruption solaire ou volcanique, on peut agir, chercher à réguler.

Tout au moins se poser les bonnes questions plutôt que de balayer ça d'un revers de main.

 

Il y a le problème de la singularité, et celui de l'utilisation malveillante de l'IA, comme introduit au 1er message.

 

Je ne parle pas des objets connectés, même si certains possèdent une "IA" au rire un peu inquiétant... ce serait un autre sujet.

 

Bang*gib merci pour le lien. :-)

Modifié par C02
Lien vers le commentaire
Partager sur d’autres sites

Ce débat va bien au delà des IAs car tout outil ou innovation peut être contourné à des fins bellicistes.  L'arme nucléaire est bien née des recherches sur l'atome... 
 

Un sujet que je connais bien ce sont les trains autonomes. C'est l'un des projets de R&D effectué par la SNCF dans le cadre de qu'elle appelle son "renouveau technologique". Il s'agit d'améliorer la capacité du réseau, sa flexibilité et sa sécurité. Ce sont des sujets très actuels. Dans un contexte de "SNCF bashing" que ce soit des français ou du gouvernement, on veut + de trains, des trains qui arrivent à l'heure et en sécurité. Il s'avère que les IAs peuvent y contribuer. 
 

Qu'on se rassure à ce sujet, tout modification impactant la sécurité nécessite un dossier de sécurité béton pour le train modifié puisse circuler sur le réseau. Si les risques liés à une IA embarquée dans le train ne sont pas couverts par des procédures, pas d'autorisation et donc pas de train autonome sur le réseau. En plus, on ne va pas brancher une IA totalement autonome sur un TGV (ou InOUI comme vous voulez  ). Dans le transport guidé, il y a plusieurs stades d'automatisation appelés Grade of Automation de GoA 0 (pas d'automatisation) à GoA 4 (absolument tout est automatisé). Une échelle comme ça est appliquée aux degrés autonomie du train. A chaque fois que l'on progressera sur cette échelle, cela modifie le train de manière significative et donc nécessitera une autorisation. 
 

En résumé, je réponds un peu sur ce que dit CO2 "on peut agir, chercher à réguler". C'est le cas dans le domaine ferroviaire et pour toute innovation (pas que les IAs). A voir dans les autres secteurs industriels... 

Il faut la réglementer pas l'interdire. Toute innovation n'a pas encore de cadre réglementaire c'est normal il faut du temps. Combien faut-il pour rédiger/voter des textes de lois ? Plusieurs années, une dizaine peut être ! 
 

Quant à cette singularité technologique, elle va forcément se heurter à des problèmes matériels. Les ressources sur Terre ne sont pas illimitées. On ne peut pas miniaturiser à l'infini. Nos connaissances technologiques ne sont pas infinies non plus. Arrivera-t-on un jour à créer une IA qui pense véritablement par elle-même et qui va au delà de sa programmation ? 


Attention à la "récupération" des rapports d'experts. Il faut se limiter qu'aux conclusions de ces rapports, ne pas réinterpréter à sa sauce (ce que font certains médias et des gens non expertes) et d'éviter tout de suite de sombrer dans le fantasme du Terminator. 

Modifié par Cyrilounet
Mise en page
Lien vers le commentaire
Partager sur d’autres sites

il y a une heure, Cyrilounet a dit :

Attention à la "récupération" des rapports d'experts. Il faut se limiter qu'aux conclusions de ces rapports, ne pas réinterpréter à sa sauce (ce que font certains médias et des gens non expertes) et d'éviter tout de suite de sombrer dans le fantasme du Terminator. 

 

C'est pas mon genre de fantasmer sur les IA, même celles du film Ex Machina...

En général j'essaie de ne pas baser mes réflexions sur la presse à sensation.

J'espère que ce fil ne sera pas un défouloir à fantasmes, c'est pas le but, au contraire !

La singularité est un sujet discuté bien au delà du milieu journalistique.

Pour le moment je suis d'accord pour dire que ça n'est pas le sujet immédiat d'inquiétude.

 

Intéressant cette info sur les projets R&D de la SNCF, merci.

 

Une lecture : https://www.inria.fr/actualite/actualites-inria/livre-blanc-sur-l-intelligence-artificielle

 

On pourrait aussi se méfier des chercheurs spécialisés sur l'IA qui ont une vue forcément partisane du sujet, malgré eux.

 

Perso j'essaie de me forger un avis, travail en cours...

Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, C02 a dit :

 

C'est pas mon genre de fantasmer sur les IA, même celles du film Ex Machina...

En général j'essaie de ne pas baser mes réflexions sur la presse à sensation.

J'espère que ce fil ne sera pas un défouloir à fantasmes, c'est pas le but, au contraire !

La singularité est un sujet discuté bien au delà du milieu journalistique.

Pour le moment je suis d'accord pour dire que ça n'est pas le sujet immédiat d'inquiétude.

 

Intéressant cette info sur les projets R&D de la SNCF, merci.

 

Une lecture : https://www.inria.fr/actualite/actualites-inria/livre-blanc-sur-l-intelligence-artificielle

 

On pourrait aussi se méfier des chercheurs spécialisés sur l'IA qui ont une vue forcément partisane du sujet, malgré eux.

 

Perso j'essaie de me forger un avis, travail en cours...

 

Pardon. Je ne visais personne en particulier. Je parlais en général moi y compris (surtout dans les cas où un film/roman de SF me séduit par son réalisme mais cela reste de la fiction). Aussi, c'était juste pour mettre en garde parce qu'il n'y a pas que le débat sur les IAs où ça part en vrille. Je vois souvent sur internet et les réseaux sociaux cette récupération à outrance des rapports d'experts où des informations sorties de leur contexte.

Je remarque que l'article du Monde que tu as mis dans ton premier post met le lien vers le rapport "The Malicious Use of Artificial Intelligence". C'est très bien parce que parfois ce n'est pas le cas... et dans ce cas tu ne peux pas confirmer ce qu'il est dit de l'article. 

Ta référence de l'INRIA est intéressante. Je n'ai pas eu le temps de tout lire mais leur "livre blanc" (par définition, objectif et qui se concentre uniquement sur les faits) cite un article (je l'ai retrouvé ici) qui décrit 5 classes de risques lié à l'usage des IAs : 

"la communauté des chercheurs en IA ne devrait pas se focaliser sur le risque de perte de contrôle par les humains car celui-ci ne présente pas de caractère critique dans un avenir prévisible, et recommandent plutôt d'accorder plus d'attention aux cinq risques à court terme auxquels sont exposés les systèmes basés sur l'IA, à savoir : 
- les bugs dans les logiciels ;
- les cyberattaques ;
- la tentation de jouer à "l'Apprenti Sorcier", c’est à dire donner la capacité aux systèmes d'IA de comprendre ce que veulent les utilisateurs au lieu d'interpréter littéralement leurs ordres ;
- "l'autonomie partagée", à savoir la coopération fluide des systèmes d'IA avec les utilisateurs de façon que les utilisateurs puissent toujours reprendre le contrôle en cas de besoin ; 
- et les impacts socio-économiques de l'IA : en d'autres termes l'IA doit être bénéfique pour l'ensemble de la société et pas seulement pour quelques privilégiés.

Le quatrième point, en le lisant, on peut se demander pourquoi est-ce un risque ? Je pense que c'est parce que c'est très compliqué à réaliser et que si ça ne marche pas ça présentera de gros risques. 

Voilà les types de risque immédiats liés à l'utilisation des IAs. Si ces risques ne sont pas réduits à un niveau acceptable (qui est à définir) et couverts pour des procédures (existantes pour les deux premières classes de risques : maintenance régulière et firewalls efficaces. Pour les autres, je ne vois pas...), on devrait pas utiliser les IAs. 

Sur "On pourrait se méfier des chercheurs spécialisés sur l'IA qui ont une vue forcément partisane du sujet, malgré eux.", en fait, il existe des comités d'éthique (l'INRIA en a un) pour encadrer les travaux de recherche quand c'est nécessaire. Après, ce n'est sans doute pas le cas de tous les instituts de recherche... 

Aussi, on dit souvent que les chercheurs ont "la tête dans le guidon" c'est à dire trop focalisés sur les travaux, perdent de vue les implications et ne regardent pas ce qu'il se passe ailleurs (pourtant ça peut donner des idées !). Je pense que l'ouverture d'esprit est une qualité essentielle d'un chercheur toute discipline confondue. Cela permettrai d'éviter les dérives éthiques. "Science sans conscience n'est que ruine de l'âme" (je ne me souviens plus de l'auteur... edit : Google me dit que c'est de Rabelais)

Modifié par Cyrilounet
Lien vers le commentaire
Partager sur d’autres sites

 

AUTOMATA  Réalisé par Gabe Ibanez,    film plus sobre que les autres sur cette idées

 

Si on part de l'hypothèse que l'apparition d'une I. À est inéluctable et qu'une singularité peu se produire à courte échéance, j'ai tendance à penser que si cela doit se produire cela se produira !

rien ne l'empêchera, on ne peut pas interdire (je ne crois pas cela possible ) de pratiquer tout un domaine de la science.
 Si y a un intérêt à créer ce genre de chose, quelqu'un quelque part le fera  un jour où l'autre        non!

Lien vers le commentaire
Partager sur d’autres sites

Posté (modifié)

@Cyrilounet : l'article que tu mets en lien de whatsthebigdata.com est très bien. Il explique assez clairement le 4e risque.

 

Il met aussi en lien un article sur le projet très intéressant de l'université de Stanford "The one hundred year study on artificial intelligence" :

 

http://www.sciencemag.org/news/2015/01/100-year-study-artificial-intelligence-microsoft-research-s-eric-horvitz-explains

 

Le site du projet :

https://ai100.stanford.edu/

 

De quoi élever son niveau de jeu dans le débat avec tout ça !

 

Pour le moment j'ai tendance à penser aussi que si une merde doit advenir, elle adviendra.

Y'a tellement de gusses qui bossent sur l'IA... et pas que des types fréquentables...

Mais sait-on jamais, l'espoir fait vivre.

Modifié par C02
petite pensée profonde de dernière minute
Lien vers le commentaire
Partager sur d’autres sites

Bonsoir à tous.

 

Avant de livrer un point de vue sur la question du sujet qui nous intéresse ici, je me dois de donner un avis sur certains mots formules ou significations, dans le but d’être bien identifié dès le départ.

Je prendrai des raccourcis nécessairement même si je ne  crains  pas d’écrire.          

Je me méfie quand même de moi-même car déjà je sens que je vais m’étaler.                                                                      

Pour essayer de la faire courte, la dernière fois que j’ai voulu approfondir  une question,  je me suis retrouvé avec quinze mille mots écrits et plus du double sans doute en attente.                                                                                                                         

Un début de roman de SN de SF  peut aussi être une nouvelle, s’il est trouvé un thème ou sujet correspond reliant plusieurs domaines :

Anticipation, science-fiction  ou hard science-fiction histoire du passé…                                                

 L’histoire ne serait pas prête hélas pour arriver ...

Trop de pages seraient occupées sur une discussion spécifique.                                         

Ça servira d'abord  ailleurs je l’espère donc ,quand ça sera bouclé.

 

-  Mode demi /raccourci

 

Il y a belle lurette donc que j’ai forgé un point de vue critique (dans tous les sens du terme) sur l’IA ou autres futurologies, d’après ce j’ai lu  entendu ou que je pense connaitre.

Il est quand même utile de lire des articles qui sont parfois  bien rédigés.

Si on propose des liens comme je l’ai fait ou d’autres, on n’est pas toujours à l’abri sur de la véracité  de son contenu. On doit faire GAFAM !!! :be:

Dans la presse ou les  médiats, j’en viens à l’avis à donner sur certains  mots  employés, de plus en plus sont à toutes les  sauces et  galvaudés comme  "big-bang" et peut être demain ça sera le tour de "singularité" etc…                                                                                                      

 Bon,  je/on  comprend(s) parfaitement la signification de ces mots et je les admettrai à leur juste valeur.

 

-  Mode très raccourci.

 

Pour IA "intelligence artificielle", je préfère même si je ne me donne pas de limite (imagination) dans mes écrits, penser que la vraie intelligence est d’un ordre naturel, biologique, vivante.

Pour l’IA je dirais plutôt, forme d’intelligence ou plutôt ersatz.

Allez donner une définition de la vie!                                                                             

Vous verrez bien ce qu’il en coûte en réflexion…

Pareil pour l’intelligence.

Pour l’intelligence artificielle (pas vivante), si quelqu’un ici peut apporter une définition ça peut être utile.

 

On serait dès  aujourd’hui envahi par l’IA.

Dans un téléphone portable, j’ai entendu  dire qu’il y aurait plus d’intelligence que dans le programme que pour Apollo.

Par rapport au lien que j’ai proposé (le second), j’ai voulu dire qu’il faut plus s’inquiéter de ceux qui ont des idées comme Elon Musk (des biens <-> vivants) que des technologies elles-mêmes.

C’est tout pour l’instant… la prochaine fois je parlerai de singularité.

Modifié par bang*gib
SF,pas SN
Lien vers le commentaire
Partager sur d’autres sites

Bonjour à tous.

 

Merci pour le lien C02.

 

Je l'ai à peine parcouru ainsi que celui qui suit en français.

https://www.huffingtonpost.fr/2018/03/19/un-premier-pieton-tue-par-une-voiture-autonome-les-accidents-peuvent-ils-faire-caler-la-revolution-annoncee_a_23389709/ 

 

Je propose aussi une vidéo que j'ai mis à plusieurs reprises sur WA  y a quelques temps.

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 20 heures, bang*gib a dit :

Dans un téléphone portable, j’ai entendu  dire qu’il y aurait plus d’intelligence que dans le programme que pour Apollo.

 

Comme tu l'as dit dans ton message, c'est une question de définition. Ici, sur l'anecdote du smartphone et des missions Apollo, intelligence désigne la puissance de calcul c'est à dire la fréquence d'un processeur informatique. Aujourd'hui, nous avons plus de puissance de calcul dans nos smartphones pour regarder une vidéo sur internet que ce qu'il a fallu pour que l'homme marche sur la Lune ! 

Aussi, quand on regarde la définition de l'intelligence sur Wikipédia, on remarque que ça ne se limite pas qu'à de la puissance de calcul. 
AlphaZero, l'IA de DeepMind, filiale de Google, est devenue imbattable au jeu de Go uniquement en calculant tous les coups possibles et en faisant le meilleur. Est-ce vraiment de l'intelligence ? Si on décide de changer de jeu, l'IA ne saura pas s'adapter. Et c'est cette adaptation aux situations changeantes qui manque à la machine pour être intelligente. Comment "programme"-t-on l'adaptation ?

Modifié par Cyrilounet
Lien vers le commentaire
Partager sur d’autres sites

Posté (modifié)

Avant de savoir si l'IA est vraiment intelligente et si elle nous surpassera dans ce domaine, tout en adoptant nos travers (domination notamment), je préfère réfléchir aux risques plus immédiats de cette IA, comme les questions juridiques que soulève la bagnole autonome, ou autres exemples donnés par Alain Bensoussan.

 

Autre développement inédit dans le domaine social :

https://www.lesechos.fr/idees-debats/sciences-prospective/0301278649981-lintelligence-artificielle-commence-a-faire-parler-les-morts-2158493.php

 

Mais je creuse toujours sur le reste...

Je me colle ça là pour y revenir plus tard : https://www.lesechos.fr/idees-debats/sciences-prospective/0301306863352-intelligence-artificielle-conscience-es-tu-la-2156561.php

 

Pas de robots tueurs dans l'armée française, on peut dormir tranquille... mais la France créée une agence de l'innovation au sein du ministère des armées, décision du 16 mars dernier, et va notamment recruter rapidement une cinquantaine d'experts dans le domaine de l'IA :

 

http://www.novethic.fr/actualite/gouvernance-dentreprise/entreprises-controversees/isr-rse/intelligence-artificielle-la-france-ne-veut-pas-de-robots-tueurs-145590.html

Modifié par C02
info agence de l'innovation armée française
Lien vers le commentaire
Partager sur d’autres sites

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.