+
📊 Sondage Éthique

Les IA devraient-elles être obligées de dire la vérité en toutes circonstances ?

@laured il y a 2 mois
Avec les nouveaux modèles 2026 qui peuvent "halluciner volontairement" pour mieux persuader (paper Inria de février), la question revient en force.
9
5 commentaires

5 commentaires

Connectez-vous pour commenter

JU
@juliea il y a 2 mois
J'ai piloté le chatbot de notre collectivité. Résultat : 40% de demandes en moins au standard. Mais le vrai gain ? Nos agents ont enfin le temps de traiter les cas complexes. L'IA ne remplace pas, elle libère du temps pour l'humain.
0
MA
@marcp il y a 2 mois
C'est exactement le problème. Les décideurs ne connaissent pas le terrain. J'ai vu un directeur digital imposer un logiciel de planification IA qui ne tenait pas compte des contraintes de maintenance. Résultat : 3 mois de retard.
0
IS
@isabelleg il y a 2 mois
Les chatbots thérapeutiques me préoccupent. J'ai vu des patients dépressifs qui s'isolaient derrière un écran au lieu de consulter. L'IA peut être un premier pas, mais jamais le dernier. La guérison passe par le lien humain.
0
PI
@pierrel il y a 2 mois
En théorie des RI, on appelle ça le 'dilemme de sécurité'. Chaque pays accélère par peur que l'autre le fasse. La seule sortie : un cadre multilatéral, mais la confiance est au plus bas.
0
TH
@thomasm il y a 2 mois
Pas d'accord. La régulation sans compréhension technique, c'est comme coder un firewall sans connaître TCP/IP. Ça crée des trous, pas de la sécurité.
0