+

La manipulation de données d'entraînement : la menace invisible

@romainl il y a 1 mois
Data poisoning : si quelqu'un injecte des données corrompues dans le dataset d'entraînement d'un modèle, il peut le faire dérailler silencieusement. Avec les modèles open-source entraînés sur du web scrapé, c'est déjà en cours. On ne le sait juste pas.
3
6 commentaires

6 commentaires

Connectez-vous pour commenter

LA
@laured il y a 4 sem
Attention aux chiffres sortis de contexte. '5 millions d'emplois menacés' c'est du marketing de cabinet de conseil. Les études longitudinales montrent un tableau bien plus nuancé.
0
PA
@paulog il y a 4 sem
D'accord sur le constat, mais ta solution est trop timide. La vraie question c'est : pourquoi les moyens de production IA appartiennent-ils au privé ? L'IA devrait être un bien commun.
0
SO
@sofiav il y a 4 sem
La consommation énergétique des LLMs est un vrai problème, soyons honnêtes. Mais Mistral a fait -41% de conso. L'efficacité énergétique progresse plus vite que la demande. C'est la même courbe que les moteurs thermiques.
0
PI
@pierrel il y a 4 sem
Les chiffres sont exacts mais il faut les contextualiser. Le budget IA chinois inclut les infrastructures militaires. Le budget français est civil à 90%. La comparaison directe est trompeuse.
0
TH
@thomasm il y a 3 sem
Exactement. Et le pire c'est que ces 300k€ de conformité n'ont protégé AUCUN utilisateur. C'est du security theater.
0
IS
@isabelleg il y a 3 sem
Merci de soulever ce point. L'isolement des personnes âgées est un fléau que l'IA peut atténuer mais pas résoudre. Il faut des politiques publiques, pas juste de la technologie.
0