S’abonner au mag

Le PMU du coin

Parce que la politique c'est important. N'est-ce pas?

Scouse a écrit

Punaise même quand je veux pas être antisémite je le suis.

Gpt, gaz, c'était déjà limite.

Scouse a écrit

Punaise même quand je veux pas être antisémite je le suis.

Hors-sujet mais +1 pour Fédor

Sebek a écrit

Et une IA autonome et décisionnaire implantée entre les 2 oreilles de Laurent W. ?

Elle serait à la table des plus grands.

Sauf que c'est elle qui paierait l'addition.

Enfin elle, nous quoi.

Sebek a écrit

"Artificial intelligence (AI) is being used to assist with everything from identifying and prioritising targets to assigning the weapons to be used against those targets."

""Artificial intelligence (AI) is being used to assist with everything"

""(AI) is being used to assist"

Merci à nouveau !

Tu as lu le reste de l'article ?

barrabravo a écrit

Tu as lu le reste de l'article ?

Chuutttt, on souffle pas à ses petits camarades, ça ne les aide pas !

Georges Randal a écrit

(Pour m'endormir, je compte les nazis.)

Ok pour le diagnostique Bonobo, mais on peut faire quoi contre cela? Il y a til des solutions réalistes?

Georges Randal a écrit

(Pour m'endormir, je compte les nazis.)

Moi j'essaie de compter les 1 entre les 0 mais ils sont si rares...

Georges Randal a écrit

Voilà les intellectuels en question : https://x.com/i/status/1843263143038042333

Il semblerait que le gugus fasse partie d'un syndicat d'étudiants juifs...

Le fait qu'il s'accroche aussi fortement à la poche dans laquelle il y a son porte-monnaie aurait dû mettre la puce à l'oreille.

FrenchiesRuud a écrit

Ok pour le diagnostique Bonobo, mais on peut faire quoi contre cela? Il y a til des solutions réalistes?

À propos de ?

Georges Randal a écrit

Ta posture m'étonne un peu à vrai dire...

Moi aussi, c'est un mec qui a de saines idées normalement. Mais j'ai remarqué qu il est pas assez sévère contre les dérives liés aux nouvelles technologies. C'est sans doute lié au domaine dans lequel il travaille.

Georges Randal a écrit

À propos de ?

Dans la plupart des pays cette utilisation de l'IA a des fin pas hyper saine est impossible à réduire et sera chaque année de plus en plus importante. Mais en France, est ce qu'il y aurait moyen de stopper cela?

Et quant aux "progrès" dans ce domaine, il y a til un moyen de mettre cela en pause le temps de bien réfléchir à toutes les conséquences? (Cela me semble impossible mais je voulais bien que tu me donnes un peu d'espoir.)

FrenchiesRuud a écrit

C'est sans doute lié au domaine dans lequel il travaille.

C'est le gars qui vient te changer ta souris quand elle ne fonctionne plus, ou qui te demande si t'as essayé d'éteindre et rallumer ton PC quand il buggue. Ça ne le qualifie pas spécialement pour juger de la dangerosité de l'IA.

FrenchiesRuud a écrit

Moi aussi, c'est un mec qui a de saines idées normalement. Mais j'ai remarqué qu il est pas assez sévère contre les dérives liés aux nouvelles technologies. C'est sans doute lié au domaine dans lequel il travaille.

C'est un mec bien le Sebek avec des bons principes et tout. Je crois qu'il ne veut pas se dire que le domaine dans lequel il travaille est néfaste pour l'humanité.

Et ce blaireau de Darmanin qui en remet une couche sur les 35h, à essayer de faire croire que temps de présence = temps effectivement productif, par pure démagogie... ou incompétence... ou plus probablement les 2.

Georges Randal a écrit

Une échappatoire ?

Le haut commandement israélien dit lui même qu'ils sont infoutus de savoir comment sont prises les décisions.

Mais tu noteras que j'ai embrayé de suite sur le sujet qui m'intéresse (second message, entre parenthèses), partant du principe que la guerre c'est comme la F1 pour la voiture de monsieur tout le monde : on teste des « solutions » pour pouvoir les appliquer aux civils.

Ta posture m'étonne un peu à vrai dire...

Je n'ai pas de posture ('me semble vous l'avoir dit à plusieurs reprises, contrairement à beaucoup ici j'ai aucun agenda idéologique). Je me renseigne, je lis, j'analyse, je conclus.

Comme quand je change les boules des souris optiques ou les toners d'imprimantes à encre. Simple comme bonsoir.

Maintenant, tu es libre d'accepter ou pas ce que je raconte, mais je n'ai rien lu/vu qui laisse à penser le contraire. Et te connaissant, si c'était le cas, tu m'aurais mis le nez dans ma propre merde.

Que le commandement israélien soit incompétent est un autre sujet.

barrabravo a écrit

Et ce blaireau de Darmanin qui en remet une couche sur les 35h, à essayer de faire croire que temps de présence = temps effectivement productif, par pure démagogie... ou incompétence... ou plus probablement les 2.

Venant d'un Chief Happiness Officer, on comprend le raisonnement.

barrabravo a écrit

Et ce blaireau de Darmanin qui en remet une couche sur les 35h, à essayer de faire croire que temps de présence = temps effectivement productif, par pure démagogie... ou incompétence... ou plus probablement les 2.

Il n'a jamais bossé de sa vie. Tout ce qu'il connaît du travail, ça vient d'études biaisées jetées sur son bureau. Quel idiot.

Sur l'IA, ce que vous dénoncez me semble précisément être le risque qu'a mis en avant Sebek dans un de ses premiers messages, i.e., la perte de compétence/ sens de responsabilité de l'humain face au travail fourni par l'IA (qui ne fait que ce qu'on lui demande).

Sittius a écrit

Venant d'un Chief Happiness Officer, on comprend le raisonnement.

Pour rendre heureuses mes collègues, je ne compte pas mes heures.

Sebek a écrit

Il n'a jamais bossé de sa vie. Tout ce qu'il connaît du travail, ça vient d'études biaisées jetées sur son bureau. Quel idiot.

Etudes résumées en 4 mots : "les Allemands travaillent plus"

Sebek a écrit

Il n'a jamais bossé de sa vie. Tout ce qu'il connaît du travail, ça vient d'études biaisées

Je parlais de Darmanin, pas de Polster !

Sittius a écrit

Sur l'IA, ce que vous dénoncez me semble précisément être le risque qu'a mis en avant Sebek dans un de ses premiers messages, i.e., la perte de compétence/ sens de responsabilité de l'humain face au travail fourni par l'IA (qui ne fait que ce qu'on lui demande).

Moi c'est surtout la notion "d'assistance" qui me fait tiquer dans les messages de Sebek. On est plutôt sur une "délégation" de responsabilités de l'homme vers la machine, qui va au-delà de la simple fourniture d'"assistance" par cette dernière. Demander à une Tesla de calculer le meilleur itinéraire possible entre 1 point de départ et 1 point d'arrivée en fonction d'un certains nombres de paramètres, c'est de l'assistance ; la conduite entièrement autonome (même "supervisée"), c'est autre chose. La question c'est de savoir vers quoi peut mener cette tendance à déléguer de plus en plus à la machine ce qui relève normalement d'arbitrages humains, en approche "scénario du pire" (au-delà de la simple perte de compétences/responsabilité humaine). L'exemple de Gaza est assez effarant : l'IA désignant comme possibles cibles Hamas des personnes sous prétexte qu'elles avaient changé plusieurs fois de localisation sur un temps plus ou moins court (quelques mois), changements de localisation motivés parfois par... les destructions successives de leurs habitations, ou par le besoin de se mettre en sécurité en anticipation d'un bombardement...

Sut la.premiere partie je pensais qu'il parlait de.moi... Mais en fait, j'ai tout de même travaillé.

Rédiger un message