Robots surpuissants, humains 2.0 ou simple aide au marketing… Le terme « intelligence artificielle » (IA) génère son lot de fantasmes. Quels sont ses usages réels, et pourquoi dit-on parfois que l'IA peut remplacer les humains ? Voici une introduction à ce vaste sujet.
L'idée d'intelligence artificielle a émergé semble-t-il très tôt, au moment où Alan Turing travaillait sur les premiers systèmes de calcul complexes qui ont précédé les ordinateurs. Dans les années 1950, celui qu'on considère comme le père de l'informatique se demandait : « Les calculateurs numériques peuvent-ils penser ? ».
Au fil des décennies, une réponse à cette question semble se dessiner : « Oui, mais cela dépend comment on définit la pensée ». Dès les années 1980, les ordinateurs commencent en effet à pouvoir déduire des chemins logiques à partir de données brutes. Mais il faudra attendre le Web 2.0 et le « Big Data » pour que le domaine explose, et trouve ses premières applications de masse. C'est en partie dû à un bond technologique : les puissances de calcul ont explosé, et le « deep learning » a aussi fait son entrée.
Dans les années 2010, les technologies grand public liées arrivent ensuite sur le devant de la scène, avec la production massive d'enceintes intelligentes avec assistant virtuel. Depuis, l'IA est intégrée partout : chatbots d'assistants virtuels, suggestions sur les boutiques en ligne ou les sites de streaming, et même, plus récemment, créations artistiques. Souvent, on interagit avec une intelligence artificielle sans même le savoir.
L'intelligence artificielle est un terme qui est devenu un peu galvaudé – on y
…Il reste 85% de l'article à lire
Devenir PremiumDéjà abonné ? Connectez-vous
On note une certaine continuité: L'automatisation a remplacé de plus en plus de tâches de "cols bleus", la numérisation remplace de plus en plus de tâches de "cols blancs". Les deux remplacent surtout des choses au niveau des actions. L'IA poursuit sur la lancée et remplace de plus en plus au niveau des prises de décision.
La technicité du monde rend celui-ci de plus en plus complexe et donc la prise de décision de plus en plus ardue. Mais cette même technicité propose désormais la solution au problème qu'elle cause: Elle propose de soulager l'humain dans ses décisions à prendre. On pourrait y voir un cycle qui se referme sur l'humain. L'humain est enveloppé d'une technicité croissante, de systèmes d'assistance qui s'interposent entre lui et le réel. Ils étaient d'abord mécaniques, maintenant ils deviennent cognitifs et viennent assister, voire soulager, voire un jour remplacer la pensée.
Cela peut revenir à une perte d'agentivité - si l'on me passe cette autre importation langagière récente. C'est à chacune et chacun de choisir si le confort de tous ces systèmes d'assistance, y compris dans les prises de décisions sur son propre chemin de vie, vaut cette perte d'agentivité.
il y a 3 ans · ModifiéQue dites-vous de :
Metaconsciousness = Metaconscience
Consciousness = Conscience
Awarness = Eveil
Sentience = Sentience
?
PS : et oui ; faut pas oublier celui-là : même si la majorité des occidentaux sont physicalistes /scientistes /materialistes /j'ai-pas-le-mot-tellement-c'est-censé-être-la-norme croient que la conscience s'arrête aux frontières des neurones,
la metaconscience est une terme qui existe bel et bien.
...En tous cas la dernière fois que j'ai vérifié en ligne sur des wikis et des blogs.
Je ne pense pas a voir la science infuse là-dessus (juste une base ;) mais...
A propos des IA, j'ai beaucoup geeké dessus à tous niveaux dans le passé, sauf sur le plan électronique mais j'ai un peu lu là-dessus aussi.
La sentiance, sur des ordis quantiques a mémoire ADN, peut-être... Mais on a pas encore la technologie pour faire tourner un Pong sur ce genre d'ordi, alors...
Du reste, à ce jour, et même demain, il me semble impossible de rendre sentiente une IA qui tourne sur de l'électronique. Parce que les ressources nécessaires à lui simuler /créer une matrix émotionnelle sont trop élevées pour permettre à ces émotions d'affecter la bestiole comme un être biologique l'est (adrénaline, excitation, terreur, psychose, névrose, désir, etc) sans qu'elle plante de manière magistrale.
...Et franchement, je pense que c'est une bonne chose : je n'ai pas envie d'imaginer ce que les gens lui feraient une fois des habitudes prises et l'ennui installé ; ou comment ca désaxerait l'empathie du plus grand nombre. (Sans compter que cela voudrait dire que les citoyens lambda comme moi ne seraient plus aussi intéressants comme vaches-à-lait pour les ultra-ultra-riches, qui sont actionnaires majoritaires des plus gros groupes mondiaux en vitrine et en coulisses et savent exploiter leur ressources pour faire croire leur pouvoir : leur intérêts, qui régissent les limites de leur empathie à notre égard, étant généralement motivée par notre valeur industrielle et commerciale, ca ne serait pas bon pour notre nombre.)
Pour ce qui est de rendre une IA conscience ; en gros, de voir La Singularité advenir... cela reste à mon avis de la pure fiction car si ça arrivait, ca ne serait justement plus un IA... (et même en théorie, c'est souvent flou, car il manque souvent des éléments spirituels pour que ça tienne la route, et la quasi-totalité des communautés scientifiques approuvées croient que la conscience s'arrête aux frontières des neurones - mais je digresse.)
Un dernier point sur la conscience en restant dans l'approche physicaliste :
Il y a plus de bactérie que de cellules héritées de l' ADN dans un corps humain, oui ?
Combien cela affecte-t-il la sentience, l'éveil et la conscience de cet individu ?
Cela est-il reproductible avec des machines, et serait-ce extrêmement stupide d'essayer de le reproduire - mdr ?
L'IA fait un apprentissage puis l'utilise pour répondre à des interrogations.
On a découvert que l'IA pouvait avoir des problèmes pour apprendre (une IA prenait des forêts pour des loups parce que toutes les photos de loups qu'on lui avait données avaient été prises en forêt) ou, pire, pour désapprendre....
On se rend également compte qu'une IA a toujours un avis sur tout, et qu'il est très difficile de savoir si cet avis est sensé/pertinent ou pas. Quand l'IA dit qu'elle est presque sûre que cet avion est hostile, à partir de quand tire-t'on dessus ? Et quand l'IA dit qu'il a probable que les passagers du bus vont mourir, sauf si on sacrifie à coup sûr les piétons qui traversent devant lui, qui sera privilégié ? Achetez-vous une voiture à Elon Musk si on vous dit qu'elle choisira de vous sacrifier face aux piétons, ou acceptez-vous d'être toujours préservé au détriment des enfants qui surgissent du trottoir alors même que vous roulez comme un(e) taré(e) en pleine ville ?
A l'inverse, l'IA peut avoir une patience inhumaine pour construire une inexplicable sûreté de décision. Mais quand le temps presse, ne risquons nous pas de mourrir au pied d'une machine qui nous assurera qu'il reste encore de l'espoir et qu'elle n'est pas encore tout à fait sûre d'elle-même ?
plus généraliste, de l'outil, et de notre transformation interne, de part son usage, mais, me semble dans le cadre du sujet
l'i.a outil décisionnaire via nos choix, ou/et garde chiourme ?
un essai , "le paradoxe du sapiens"
https://www.editions-bayol.com/pages/livres-titres/paradoxe.html
il y a 3 ans