S’abonner au mag

Le PMU du coin

Parce que la politique c'est important. N'est-ce pas?

barrabravo a écrit

Et ce blaireau de Darmanin qui en remet une couche sur les 35h, à essayer de faire croire que temps de présence = temps effectivement productif, par pure démagogie... ou incompétence... ou plus probablement les 2.

A l'œil je dirais que cela.dépend du travail. Dans certains domaine le.temps de.présence est assez proche du temps effectievement productif, non?

FrenchiesRuud a écrit

A l'œil je dirais que cela.dépend du travail. Dans certains domaine le.temps de.présence est assez proche du temps effectievement productif, non?

Barra de temps en temps oublis son passé et pense que ses nouveaux collègues RH représentent la globalité du monde salarié.

J'pense que les manutentionnaires, personnel de magasin et autres ouvriers trouvent que leur temps de travail présentiel est vachement proche du temps effectif :D

Zé Fuba a écrit

Barra de temps en temps oublis son passé et pense que ses nouveaux collègues RH représentent la globalité du monde salarié.

J'pense que les manutentionnaires, personnel de magasin et autres ouvriers trouvent que leur temps de travail présentiel est vachement proche du temps effectif :D

J'ai pas dit que temps de travail présentiel =/= temps effectif (?), j'ai dit que temps de présence =/= productivité. Et ça n'a rien à voir avec la catégorie socioprofessionnelle.

barrabravo a écrit

Moi c'est surtout la notion "d'assistance" qui me fait tiquer dans les messages de Sebek. On est plutôt sur une "délégation" de responsabilités de l'homme vers la machine, qui va au-delà de la simple fourniture d'"assistance" par cette dernière. Demander à une Tesla de calculer le meilleur itinéraire possible entre 1 point de départ et 1 point d'arrivée en fonction d'un certains nombres de paramètres, c'est de l'assistance ; la conduite entièrement autonome (même "supervisée"), c'est autre chose. La question c'est de savoir vers quoi peut mener cette tendance à déléguer de plus en plus à la machine ce qui relève normalement d'arbitrages humains, en approche "scénario du pire" (au-delà de la simple perte de compétences/responsabilité humaine). L'exemple de Gaza est assez effarant : l'IA désignant comme possibles cibles Hamas des personnes sous prétexte qu'elles avaient changé plusieurs fois de localisation sur un temps plus ou moins court (quelques mois), changements de localisation motivés parfois par... les destructions successives de leurs habitations, ou par le besoin de se mettre en sécurité en anticipation d'un bombardement...

Bah l'exemple que tu donnes c'est exactement ce à quoi je fais référence.

Sittius a écrit

Bah l'exemple que tu donnes c'est exactement ce à quoi je fais référence.

Je ne comprends pas le point de vue de Bono et Barra. À chaque fois, ils citent des initiatives d'assistance pour dire que l'IA fait plus qu'assister.

Cette IA régurgite une proposition après avoir passé un historique de données arbitraires à la moulinette.

Elle n'a pas décidé d'envoyer le missile sur sa propre proposition. Le garde-fou est là, et ce même si l'armée israélienne est dans les choux.

On voit quand même la différence entre une proposition et une décision ?

Après on peut toujours utiliser la rhétorique pour faire valoir un autre point de vue, en ce qui me concerne tant que l'IA n'a pas de pouvoir décisionnel, c'est l'humain qui valide. Si l'humain valide aveuglément une proposition de l'IA : responsabilité humaine.

Sebek a écrit

Je ne comprends pas le point de vue de Bono et Barra. À chaque fois, ils citent des initiatives d'assistance pour dire que l'IA fait plus qu'assister.

Cette IA régurgite une proposition après avoir passé un historique de données arbitraires à la moulinette.

Elle n'a pas décidé d'envoyer le missile sur sa propre proposition. Le garde-fou est là, et ce même si l'armée israélienne est dans les choux.

On voit quand même la différence entre une proposition et une décision ?

Après on peut toujours utiliser la rhétorique pour faire valoir un autre point de vue, en ce qui me concerne tant que l'IA n'a pas de pouvoir décisionnel, c'est l'humain qui valide. Si l'humain valide aveuglément une proposition de l'IA : responsabilité humaine.

Surtout que l'IA fait ce pourquoi elle est programmée. Elle ne prend pas d'initiative, et si elle a des biais qui ne sont pas corrigées, c'est la responsabilité de l'humain.

Sebek a écrit

Je ne comprends pas le point de vue de Bono et Barra. À chaque fois, ils citent des initiatives d'assistance pour dire que l'IA fait plus qu'assister.

Cette IA régurgite une proposition après avoir passé un historique de données arbitraires à la moulinette.

Elle n'a pas décidé d'envoyer le missile sur sa propre proposition. Le garde-fou est là, et ce même si l'armée israélienne est dans les choux.

On voit quand même la différence entre une proposition et une décision ?

Après on peut toujours utiliser la rhétorique pour faire valoir un autre point de vue, en ce qui me concerne tant que l'IA n'a pas de pouvoir décisionnel, c'est l'humain qui valide. Si l'humain valide aveuglément une proposition de l'IA : responsabilité humaine.

Je pensais avoir été clair mais y avait peut-être trop de mots alors je synthétise :

Hier : assistance / aide à

Aujourd'hui : délégation "supervisée" (lol) / fait à la place de, "sous supervision" (lol)

Demain : ?

barrabravo a écrit

Je pensais avoir été clair mais y avait peut-être trop de mots alors je synthétise :

Hier : assistance / aide à

Aujourd'hui : délégation "supervisée" (lol) / fait à la place de, "sous supervision" (lol)

Demain : ?

En plus d'être lourd, c'est con.

T'as pas un atelier team building à animer plutôt ?

Sittius a écrit

En plus d'être lourd, c'est con.

T'as pas un atelier team building à animer plutôt ?

Lourd ?

Sittius a écrit

Surtout que l'IA fait ce pourquoi elle est programmée. Elle ne prend pas d'initiative, et si elle a des biais qui ne sont pas corrigées, c'est la responsabilité de l'humain.

Ce que tu décris ce n'est pas de l'IA, ce sont des machines.

Le principe de l'IA c'est d'avoir une réflexion autonome dans un cadre dédié.

Dans l'exemple militaire on a l'IA qui défini des cibles. Certes la validation est humaine mais l'humain ne va pas refaire le processus de sélection de la machine qui a brassé des millions de données.

On a donc des gens qui sont identifiés par l'IA comme étant membre du Hamas et dont éliminés à la suite de ce processus mené par l'IA.

La vérification humaine est illusoire, le type est mort parce que l'IA a dit "il est membre du hamas".

LeBigMacdeGignac a écrit

Ce que tu décris ce n'est pas de l'IA, ce sont des machines.

Le principe de l'IA c'est d'avoir une réflexion autonome dans un cadre dédié.

Dans l'exemple militaire on a l'IA qui défini des cibles. Certes la validation est humaine mais l'humain ne va pas refaire le processus de sélection de la machine qui a brassé des millions de données.

On a donc des gens qui sont identifiés par l'IA comme étant membre du Hamas et dont éliminés à la suite de ce processus mené par l'IA.

La vérification humaine est illusoire, le type est mort parce que l'IA a dit "il est membre du hamas".

Toujours pas une IA décisionnaire.

Essayer de causer entre autres d'éthique avec un programmeur de droite (je n'ai pas d'idéologie, mdr) et un Lyonnais de droite (qui a 4 mètres de hauteur sous plafond)...

Faut avoir du temps.

Sebek a écrit

Toujours pas une IA décisionnaire.

En pratique si puisque l'humain qui doit appuyer sur le bouton n'est pas en mesure de vérifier le choix opéré par l'IA.

Georges Randal a écrit

Essayer de causer entre autres d'éthique avec un programmeur de droite (je n'ai pas d'idéologie, mdr) et un Lyonnais de droite (qui a 4 mètres de hauteur sous plafond)...

Faut avoir du temps.

Débiter des conneries qu'on ne maîtrise pas et maquiller ça sous de l'éthique, typique des punks à chien.

LeBigMacdeGignac a écrit

En pratique si puisque l'humain qui doit appuyer sur le bouton n'est pas en mesure de vérifier le choix opéré par l'IA.

Ah bon ?

Sittius a écrit

Ah bon ?

Quand l'IA vient de croiser en quelques secondes des milliers de données pour dire "ce gars est du hamas" tu crois que le type qui doit appuyer sur le bouton dit "ok, je vais aller passer 2 jours à éplucher son dossier avant de lui envoyer un drone sur la gueule". Ben non, il appuie sur le bouton en se disant "au suivant".

LeBigMacdeGignac a écrit

Quand l'IA vient de croiser en quelques secondes des milliers de données pour dire "ce gars est du hamas" tu crois que le type qui doit appuyer sur le bouton dit "ok, je vais aller passer 2 jours à éplucher son dossier avant de lui envoyer un drone sur la gueule". Ben non, il appuie sur le bouton en se disant "au suivant".

Et encore, ça c'est s'il y a effectivement "un type qui doit appuyer sur le bouton".

Georges Randal a écrit

causer entre autres d'éthique

Et de prospective politique, militaire.

LeBigMacdeGignac a écrit

Ce que tu décris ce n'est pas de l'IA, ce sont des machines.

Le principe de l'IA c'est d'avoir une réflexion autonome dans un cadre dédié.

.

Oui et au dernières nouvelles ils n'ont aucune idée de comment faire une vraie IA. (Il n'y a aucun chemin qui mène vers cela)

Pour le moment on a que l'illusion de l'intelligence.

LeBigMacdeGignac a écrit

Quand l'IA vient de croiser en quelques secondes des milliers de données pour dire "ce gars est du hamas" tu crois que le type qui doit appuyer sur le bouton dit "ok, je vais aller passer 2 jours à éplucher son dossier avant de lui envoyer un drone sur la gueule". Ben non, il appuie sur le bouton en se disant "au suivant".

Oui, donc c’est sa responsabilité, il est décisionnaire.

Sittius a écrit

Oui, donc c’est sa responsabilité, il est décisionnaire.

Si la décision est automatique... Là ça devient un débat sémantique. Mais il a raison lebig.

FrenchiesRuud a écrit

Si la décision est automatique... Là ça devient un débat sémantique. Mais il a raison lebig.

A mon avis le.mec qui a programmé le bidule est plus responsable que celui qui appuie sur le bouton à la fin mais bon...

LeBigMacdeGignac a écrit

Ce que tu décris ce n'est pas de l'IA, ce sont des machines.

A deux doigts de découvrir le "machine learning"

Sittius a écrit

Oui, donc c’est sa responsabilité, il est décisionnaire.

Il doit y avoir une procédure, qui te dit de faire ce que te conseille "l'IA". Dans ce cas où est la décision?

Rédiger un message