- SOFOOT.com
- Le forum
- Le PMU du coin
barrabravo a écritEt ce blaireau de Darmanin qui en remet une couche sur les 35h, à essayer de faire croire que temps de présence = temps effectivement productif, par pure démagogie... ou incompétence... ou plus probablement les 2.
A l'œil je dirais que cela.dépend du travail. Dans certains domaine le.temps de.présence est assez proche du temps effectievement productif, non?
FrenchiesRuud a écritA l'œil je dirais que cela.dépend du travail. Dans certains domaine le.temps de.présence est assez proche du temps effectievement productif, non?
Barra de temps en temps oublis son passé et pense que ses nouveaux collègues RH représentent la globalité du monde salarié.
J'pense que les manutentionnaires, personnel de magasin et autres ouvriers trouvent que leur temps de travail présentiel est vachement proche du temps effectif :D
Zé Fuba a écritBarra de temps en temps oublis son passé et pense que ses nouveaux collègues RH représentent la globalité du monde salarié.
J'pense que les manutentionnaires, personnel de magasin et autres ouvriers trouvent que leur temps de travail présentiel est vachement proche du temps effectif :D
J'ai pas dit que temps de travail présentiel =/= temps effectif (?), j'ai dit que temps de présence =/= productivité. Et ça n'a rien à voir avec la catégorie socioprofessionnelle.
barrabravo a écritMoi c'est surtout la notion "d'assistance" qui me fait tiquer dans les messages de Sebek. On est plutôt sur une "délégation" de responsabilités de l'homme vers la machine, qui va au-delà de la simple fourniture d'"assistance" par cette dernière. Demander à une Tesla de calculer le meilleur itinéraire possible entre 1 point de départ et 1 point d'arrivée en fonction d'un certains nombres de paramètres, c'est de l'assistance ; la conduite entièrement autonome (même "supervisée"), c'est autre chose. La question c'est de savoir vers quoi peut mener cette tendance à déléguer de plus en plus à la machine ce qui relève normalement d'arbitrages humains, en approche "scénario du pire" (au-delà de la simple perte de compétences/responsabilité humaine). L'exemple de Gaza est assez effarant : l'IA désignant comme possibles cibles Hamas des personnes sous prétexte qu'elles avaient changé plusieurs fois de localisation sur un temps plus ou moins court (quelques mois), changements de localisation motivés parfois par... les destructions successives de leurs habitations, ou par le besoin de se mettre en sécurité en anticipation d'un bombardement...
Bah l'exemple que tu donnes c'est exactement ce à quoi je fais référence.
Sittius a écritBah l'exemple que tu donnes c'est exactement ce à quoi je fais référence.
Je ne comprends pas le point de vue de Bono et Barra. À chaque fois, ils citent des initiatives d'assistance pour dire que l'IA fait plus qu'assister.
Cette IA régurgite une proposition après avoir passé un historique de données arbitraires à la moulinette.
Elle n'a pas décidé d'envoyer le missile sur sa propre proposition. Le garde-fou est là, et ce même si l'armée israélienne est dans les choux.
On voit quand même la différence entre une proposition et une décision ?
Après on peut toujours utiliser la rhétorique pour faire valoir un autre point de vue, en ce qui me concerne tant que l'IA n'a pas de pouvoir décisionnel, c'est l'humain qui valide. Si l'humain valide aveuglément une proposition de l'IA : responsabilité humaine.
Sebek a écritJe ne comprends pas le point de vue de Bono et Barra. À chaque fois, ils citent des initiatives d'assistance pour dire que l'IA fait plus qu'assister.
Cette IA régurgite une proposition après avoir passé un historique de données arbitraires à la moulinette.
Elle n'a pas décidé d'envoyer le missile sur sa propre proposition. Le garde-fou est là, et ce même si l'armée israélienne est dans les choux.
On voit quand même la différence entre une proposition et une décision ?
Après on peut toujours utiliser la rhétorique pour faire valoir un autre point de vue, en ce qui me concerne tant que l'IA n'a pas de pouvoir décisionnel, c'est l'humain qui valide. Si l'humain valide aveuglément une proposition de l'IA : responsabilité humaine.
Surtout que l'IA fait ce pourquoi elle est programmée. Elle ne prend pas d'initiative, et si elle a des biais qui ne sont pas corrigées, c'est la responsabilité de l'humain.
Sebek a écritJe ne comprends pas le point de vue de Bono et Barra. À chaque fois, ils citent des initiatives d'assistance pour dire que l'IA fait plus qu'assister.
Cette IA régurgite une proposition après avoir passé un historique de données arbitraires à la moulinette.
Elle n'a pas décidé d'envoyer le missile sur sa propre proposition. Le garde-fou est là, et ce même si l'armée israélienne est dans les choux.
On voit quand même la différence entre une proposition et une décision ?
Après on peut toujours utiliser la rhétorique pour faire valoir un autre point de vue, en ce qui me concerne tant que l'IA n'a pas de pouvoir décisionnel, c'est l'humain qui valide. Si l'humain valide aveuglément une proposition de l'IA : responsabilité humaine.
Je pensais avoir été clair mais y avait peut-être trop de mots alors je synthétise :
Hier : assistance / aide à
Aujourd'hui : délégation "supervisée" (lol) / fait à la place de, "sous supervision" (lol)
Demain : ?
barrabravo a écritJe pensais avoir été clair mais y avait peut-être trop de mots alors je synthétise :
Hier : assistance / aide à
Aujourd'hui : délégation "supervisée" (lol) / fait à la place de, "sous supervision" (lol)
Demain : ?
En plus d'être lourd, c'est con.
T'as pas un atelier team building à animer plutôt ?
Sittius a écritSurtout que l'IA fait ce pourquoi elle est programmée.
Une IA est-elle programmée pour se suicider ?
https://www.rtl.fr/actu/international/co…e-le-pays-7900399272
Sittius a écritEn plus d'être lourd, c'est con.
T'as pas un atelier team building à animer plutôt ?
Lourd ?
Sittius a écritSurtout que l'IA fait ce pourquoi elle est programmée. Elle ne prend pas d'initiative, et si elle a des biais qui ne sont pas corrigées, c'est la responsabilité de l'humain.
Ce que tu décris ce n'est pas de l'IA, ce sont des machines.
Le principe de l'IA c'est d'avoir une réflexion autonome dans un cadre dédié.
Dans l'exemple militaire on a l'IA qui défini des cibles. Certes la validation est humaine mais l'humain ne va pas refaire le processus de sélection de la machine qui a brassé des millions de données.
On a donc des gens qui sont identifiés par l'IA comme étant membre du Hamas et dont éliminés à la suite de ce processus mené par l'IA.
La vérification humaine est illusoire, le type est mort parce que l'IA a dit "il est membre du hamas".
LeBigMacdeGignac a écritCe que tu décris ce n'est pas de l'IA, ce sont des machines.
Le principe de l'IA c'est d'avoir une réflexion autonome dans un cadre dédié.
Dans l'exemple militaire on a l'IA qui défini des cibles. Certes la validation est humaine mais l'humain ne va pas refaire le processus de sélection de la machine qui a brassé des millions de données.
On a donc des gens qui sont identifiés par l'IA comme étant membre du Hamas et dont éliminés à la suite de ce processus mené par l'IA.
La vérification humaine est illusoire, le type est mort parce que l'IA a dit "il est membre du hamas".
Toujours pas une IA décisionnaire.
Essayer de causer entre autres d'éthique avec un programmeur de droite (je n'ai pas d'idéologie, mdr) et un Lyonnais de droite (qui a 4 mètres de hauteur sous plafond)...
Faut avoir du temps.
Sebek a écritToujours pas une IA décisionnaire.
En pratique si puisque l'humain qui doit appuyer sur le bouton n'est pas en mesure de vérifier le choix opéré par l'IA.
Georges Randal a écritEssayer de causer entre autres d'éthique avec un programmeur de droite (je n'ai pas d'idéologie, mdr) et un Lyonnais de droite (qui a 4 mètres de hauteur sous plafond)...
Faut avoir du temps.
Débiter des conneries qu'on ne maîtrise pas et maquiller ça sous de l'éthique, typique des punks à chien.
LeBigMacdeGignac a écritEn pratique si puisque l'humain qui doit appuyer sur le bouton n'est pas en mesure de vérifier le choix opéré par l'IA.
Ah bon ?
Sittius a écritAh bon ?
Quand l'IA vient de croiser en quelques secondes des milliers de données pour dire "ce gars est du hamas" tu crois que le type qui doit appuyer sur le bouton dit "ok, je vais aller passer 2 jours à éplucher son dossier avant de lui envoyer un drone sur la gueule". Ben non, il appuie sur le bouton en se disant "au suivant".
LeBigMacdeGignac a écritQuand l'IA vient de croiser en quelques secondes des milliers de données pour dire "ce gars est du hamas" tu crois que le type qui doit appuyer sur le bouton dit "ok, je vais aller passer 2 jours à éplucher son dossier avant de lui envoyer un drone sur la gueule". Ben non, il appuie sur le bouton en se disant "au suivant".
Et encore, ça c'est s'il y a effectivement "un type qui doit appuyer sur le bouton".
Georges Randal a écritcauser entre autres d'éthique
Et de prospective politique, militaire.
LeBigMacdeGignac a écritCe que tu décris ce n'est pas de l'IA, ce sont des machines.
Le principe de l'IA c'est d'avoir une réflexion autonome dans un cadre dédié.
.
Oui et au dernières nouvelles ils n'ont aucune idée de comment faire une vraie IA. (Il n'y a aucun chemin qui mène vers cela)
Pour le moment on a que l'illusion de l'intelligence.
LeBigMacdeGignac a écritQuand l'IA vient de croiser en quelques secondes des milliers de données pour dire "ce gars est du hamas" tu crois que le type qui doit appuyer sur le bouton dit "ok, je vais aller passer 2 jours à éplucher son dossier avant de lui envoyer un drone sur la gueule". Ben non, il appuie sur le bouton en se disant "au suivant".
Oui, donc c’est sa responsabilité, il est décisionnaire.
Sittius a écritOui, donc c’est sa responsabilité, il est décisionnaire.
Si la décision est automatique... Là ça devient un débat sémantique. Mais il a raison lebig.
FrenchiesRuud a écritSi la décision est automatique... Là ça devient un débat sémantique. Mais il a raison lebig.
A mon avis le.mec qui a programmé le bidule est plus responsable que celui qui appuie sur le bouton à la fin mais bon...
LeBigMacdeGignac a écritCe que tu décris ce n'est pas de l'IA, ce sont des machines.
A deux doigts de découvrir le "machine learning"
Sittius a écritOui, donc c’est sa responsabilité, il est décisionnaire.
Il doit y avoir une procédure, qui te dit de faire ce que te conseille "l'IA". Dans ce cas où est la décision?