+

Peut-on éthiquement utiliser une IA entraînée sur des données volées ?

@juliea il y a 1 mois
La plupart des LLMs ont été entraînés sur des données scrapées sans consentement. En utilisant ChatGPT ou Midjourney, sommes-nous complices ? Le droit américain dit "fair use". Le droit européen est plus flou. Mais moralement, on sait tous que c'est du vol créatif.
9
6 commentaires

6 commentaires

Connectez-vous pour commenter

PA
@paulog il y a 1 mois
L'intersectionnalité dans l'IA : les populations les plus impactées par l'automatisation sont les femmes racisées dans les emplois précaires. Mais on parle des cols blancs dans les tours. Le privilège, même dans l'apocalypse, c'est de parler de ton problème en premier.
0
LA
@laured il y a 1 mois
Les données que vous citez sont réelles, mais le cadre d'interprétation manque de contexte sociologique. Corrélation n'est pas causalité, surtout dans les études de marché.
0
RO
@romainl il y a 1 mois
La donnée agricole est un sujet sensible. Si Bayer ou John Deere récupèrent mes données de sol pour me vendre leurs produits plus cher, c'est de l'exploitation. La donnée du fermier doit rester au fermier.
0
MA
@marcp il y a 1 mois
C'est exactement le problème. Les décideurs ne connaissent pas le terrain. J'ai vu un directeur digital imposer un logiciel de planification IA qui ne tenait pas compte des contraintes de maintenance. Résultat : 3 mois de retard.
0
PI
@pierrel il y a 1 mois
Votre analyse oublie un acteur clé : les États du Golfe. Le Qatar et les EAU investissent massivement dans l'IA comme levier de soft power post-pétrole. C'est un facteur géopolitique majeur.
0
TH
@thomasm il y a 1 mois
Pas d'accord. La régulation sans compréhension technique, c'est comme coder un firewall sans connaître TCP/IP. Ça crée des trous, pas de la sécurité.
0