Page 4 sur 5

Re: Encombrement du ciel creusois

MessagePosté: Mercredi 11 Janvier 2023 20:47
de Gilles131
gma a écrit:
Gilles131 a écrit:C'est ce que tu dis... mais qu'en pense l'ordinateur?

L'ordinateur ne pense rien.

Sans dec'?
Mais si, il produit de la pensée artificielle (PA)

Re: Encombrement du ciel creusois

MessagePosté: Mercredi 11 Janvier 2023 20:56
de Manu
A partir du moment où il commence à élaborer ses propres stratégies ou prendre des décisions pour lesquelles il n'a pas été programmé, si il pense. On n'est plus au stade du simple algrorithme si / alors / ou.

Exemple très basique au casse brique. Après quelques dizaines de parties où on a juste expliqué à l'ordinateur le but du jeu il comprend par lui même qu'il a tout intérêt à percer un trou pour envoyer la boule au dessus des briques et la laisser bosser sans qu'il n'ait plus rien à faire.

Manu

Re: Encombrement du ciel creusois

MessagePosté: Mercredi 11 Janvier 2023 21:31
de gma
Gilles131 a écrit:
gma a écrit:
Gilles131 a écrit:C'est ce que tu dis... mais qu'en pense l'ordinateur?

L'ordinateur ne pense rien.

Sans dec'?
Mais si, il produit de la pensée artificielle (PA)


Non, il déroule un ou plusieurs algorithmes.
Ce qui produit une pensée est un organisme vivant, qui répond psychiquement à des perceptions (sensations).

Par contre, il y a des programmes d'intelligence artificielle, qui ne pensent pas, et qui déroule des algorithmes sur ordinateur, mais pas que.

Re: Encombrement du ciel creusois

MessagePosté: Mercredi 11 Janvier 2023 21:49
de gma
Manu a écrit:A partir du moment où il commence à élaborer ses propres stratégies ou prendre des décisions pour lesquelles il n'a pas été programmé, si il pense. On n'est plus au stade du simple algorithme si / alors / ou.

Exemple très basique au casse brique. Après quelques dizaines de parties où on a juste expliqué à l'ordinateur le but du jeu il comprend par lui même qu'il a tout intérêt à percer un trou pour envoyer la boule au dessus des briques et la laisser bosser sans qu'il n'ait plus rien à faire.

Manu


1) t'as rien expliqué à l'ordinateur...
2) l'ordinateur comprend rien...
3) Tu as mis dans l'ordinateur un programme logique...
4) Tu lui demandes de dérouler un algorithme de calcul, de tri, de classement et de séquençage...
5) Puis l'ordinateur exécute le programme via cet algorithme jusqu'à épuisement des combinaisons mathématiques possibles (ce que tu ne peux pas faire),
6) Puis l'ordinateur mémorise les différentes combinaisons (ce que tu ne peux pas faire).
6) Le résultat qu'il obtient te convient (casse les briques)... Ou pas (perd la boule) !
7) Et remarque que si le résultat ne te convient pas, tu changes la logique du programme ou l'algorithme... Jusqu'à ce que cela te convienne.

8) Il y a plus de règles logique que "si", "alors", "ou"...

C'est donc toi qui fixe 1) la stratégie, 2) le but, 3) la règle matérielle (on a pas encore vu un PC te jeter par la figure sa mémoire RAM en te disant " C'est une mer.e, va en chercher une autre !")
Le "soft" et le "hard" dépendant encore de l'humain quoi.

Re: Encombrement du ciel creusois

MessagePosté: Mercredi 11 Janvier 2023 22:22
de Delépine
Je songe que si une IA est de mauvaise foi, elle simule forcément : puisque les causes de la mauvaise foi sont l'intérêt et l'orgueil, tous deux étrangers à l'IA.
J'emploierai tous les sophismes possibles face à qui contredira cette assertion.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 10:29
de Jeanj
gma a écrit:
Manu a écrit:A partir du moment où il commence à élaborer ses propres stratégies ou prendre des décisions pour lesquelles il n'a pas été programmé, si il pense. On n'est plus au stade du simple algorithme si / alors / ou.

Exemple très basique au casse brique. Après quelques dizaines de parties où on a juste expliqué à l'ordinateur le but du jeu il comprend par lui même qu'il a tout intérêt à percer un trou pour envoyer la boule au dessus des briques et la laisser bosser sans qu'il n'ait plus rien à faire.

Manu


1) t'as rien expliqué à l'ordinateur...
2) l'ordinateur comprend rien...
3) Tu as mis dans l'ordinateur un programme logique...
4) Tu lui demandes de dérouler un algorithme de calcul, de tri, de classement et de séquençage...
5) Puis l'ordinateur exécute le programme via cet algorithme jusqu'à épuisement des combinaisons mathématiques possibles (ce que tu ne peux pas faire),
6) Puis l'ordinateur mémorise les différentes combinaisons (ce que tu ne peux pas faire).
6) Le résultat qu'il obtient te convient (casse les briques)... Ou pas (perd la boule) !
7) Et remarque que si le résultat ne te convient pas, tu changes la logique du programme ou l'algorithme... Jusqu'à ce que cela te convienne.

8) Il y a plus de règles logique que "si", "alors", "ou"...

C'est donc toi qui fixe 1) la stratégie, 2) le but, 3) la règle matérielle (on a pas encore vu un PC te jeter par la figure sa mémoire RAM en te disant " C'est une mer.e, va en chercher une autre !")

Le "soft" et le "hard" dépendant encore de l'humain quoi.


Intéressant de voir que lorsqu'un domaine technique dépasse le seuil de compréhension basique et intuitive on se réfugie derrière des certitudes bien rassurantes.
8 points de détail, 8 approximations grossières (pour être poli).

Cette explication est valable pour les premiers programmes informatiques "confrontés" à l'humain, comme les premiers programmes d'échecs, mais c'est complètement obsolète en l'état actuel de la science.

Aujourd'hui, il faut assimiler les notions de "réseaux neuronaux artificiels", "apprentissage profond", et particulièrement "apprentissage auto-supervisé" pour avoir un aperçu de ce qui nous attend.

Ce n'est pas parce que c'est vertigineux que c'est impossible.

Un exemple simple, on rigole aujourd'hui avec ChatGPT. Cette interface est cependant capable de rédiger le code d'une application informatique que je lui décris. Si je la sollicite pour m'assister dans la programmation d'un équipement mettant en jeu la sécurité des personnes, que ce code fonctionne mais qu'un cas de défaillance engendre un drame, ça devient subitement moins drôle... Mais reste tout à fait possible.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 12:15
de gma
Jeanj a écrit:... Aujourd'hui, il faut assimiler les notions de "réseaux neuronaux artificiels", "apprentissage profond", et particulièrement "apprentissage auto-supervisé" pour avoir un aperçu de ce qui nous attend.

Ce n'est pas parce que c'est vertigineux que c'est impossible.

Un exemple simple, on rigole aujourd'hui avec ChatGPT. Cette interface est cependant capable de rédiger le code d'une application informatique que je lui décris. Si je la sollicite pour m'assister dans la programmation d'un équipement mettant en jeu la sécurité des personnes, que ce code fonctionne mais qu'un cas de défaillance engendre un drame, ça devient subitement moins drôle... Mais reste tout à fait possible.


Et alors !... A la fin, vous obtiendrez un cerveau technologique qui serait équivalent au cerveau humain comme l'aile d'avion est équivalente à celle de l'oiseau (pour rester aéro).

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 17:33
de Delépine
Et si on démontre qu'il a une conscience on lui consentira des droits, et on n'est pas sortis des emmerdes.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 18:07
de Max89000
Et aussi des devoirs et des règles de vie, voir Asimov…

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 18:27
de Delépine
Leurs opinions politiques et sociétales s'imposeront aux humaines et aux humains, il va de soi.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 19:33
de gma
La tendance dans l'industrie depuis très longtemps, c'est de confier aux machines le contrôle qualité (bords de ligne, hors bords de ligne, poka-yoke, dimensionnel, réglage outils, serrage au couple,...).
Ce n'est pas parce que l'homme ne sait pas faire...
Ce n'est pas parce que c'est fatiguant...
C'est juste parce que l'homme peut se tromper, qu'une erreur d'un opérateur c'est un problème de management, que le ou les hiérarchiques doivent régler.
Donc via des outils d'analyse de problème tirés par les cheveux, les hiérarchiques possiblement soumis aux risques démontrent qu'ils ont une faille dans le contrôle qualité (comprenez "ça dépend d'un humain"), et invitent ceux encore plus haut à investir dans un moyen de contrôle automatisé (il faut absolument que ce soit une machine), comme ça en cas d'erreur, c'est la faute d'une panne machine, donc c'est pas un problème de management.

Il y a de très fortes chances qu'une IA obsolète avant l'heure s'impose dans la prise de décision, juste parce que l'humain qui devrait décider n'a pas le courage ou l'envie d'assumer les erreurs, possibles, d'une mauvaise décision.
Et comme l'écrit Jeanj, en matière de sécurité, là ou l'humain se dégonfle plus vite qu'ailleurs, l'IA va faire son trou.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 22:12
de Delépine
Que se passera-t-il quand une IA par son raisonnement prétendra soutenir une conclusion "inaudible" ?
J'ai lu quelque part que pour Asimov (dont je n'ai rien lu, et à plus de 67 ans on n'a plus le temps de lire des romans) tout robot doit s'interdire de nuire à un humain.
Mais est-ce que ne sera pas interprété comme nuisant aux humains le fait de les traumatiser en parvenant par l'intelligence pure à de telles conclusions inaudibles ? En ce cas il n'y a pas à craindre d'être dépassés par l'IA puisqu'on la limitera ipso facto au niveau de la sottise du cerveau biologique. Une autre manière de le dire est que l'obstruction mentale due aux idéologies à la mode sera injectée dans les IA.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 22:20
de FbS
Faut vraiment que tu relises asimov, et notamment la loi zero de la robotique, qui est déduite par un robot, de ses obligations concernant les 3 lois classiques....(je te spoile pas plus)..

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 22:37
de Delépine
Ça va plus vite de lire Wikipédia qu'Asimov. Bon, alors ta loi zéro a deux vices fondamentaux :
1) elle est due à un mec qui s'appelle Giscard.
2) le jour où elle est appliquée on est groundés.

Re: Encombrement du ciel creusois

MessagePosté: Lundi 16 Janvier 2023 22:50
de FbS
Giscard est un robot.....Image