L'administration Biden demande , des mesures de sécurité
pour les outils d'IA.
ABC rapporte que l'administration Biden a demandé
des mesures plus strictes pour déterminer les risques potentiels des outils d'intelligence artificielle
tels que ChatGPT.
L'administration n'a pas encore décidé si le gouvernement jouera un rôle dans l'approbation des outils d'IA avant qu'ils ne soient mis à la
disposition du public.
Le 11 avril, le ministère américain du commerce a déclaré qu'il passerait les 60 prochains jours à étudier la possibilité d'effectuer des audits d'IA, d'évaluation des risques
et de diverses autres mesures.
Le 11 avril, le ministère américain du commerce a déclaré qu'il passerait les 60 prochains jours à étudier la possibilité d'effectuer des audits d'IA, d'évaluation des risques
et de diverses autres mesures.
L'inquiétude est d'autant plus grande qu'il faut que cela se fasse de
manière responsable, Alan Davidson, secrétaire adjoint au commerce et administrateur
de la National Telecommunications et de l'information, via ABC.
L'année dernière, l'administration Biden a dévoilé
un objectif de prévenir les risques liés à
l'essor des systèmes d'IA. .
Ces nouveaux modèles linguistiques, par exemple, sont très puissants et ils ont le potentiel de causer de réels préjudices, Alan Davidson, secrétaire adjoint au commerce et administrateur
de la National Telecommunications et de l'information, via ABC.
L'administration nationale des télécommunications et de l'information (NTIA) a demandé un retour d'information
sur les politiques visant à responsabiliser
les outils d'IA commerciaux.
Nous pensons que ces mécanismes de responsabilisation pourraient vraiment aider en renforçant la confiance dans l'innovation en cours, Alan Davidson, secrétaire adjoint au commerce et administrateur
de la National Telecommunications et de l'information, via ABC.
En s'adressant aux conseillers scientifiques et technologiques, il a déclaré que les entreprises devaient s'assurer de la qualité de leurs produits et services
sur le marché avant de les commercialiser.
La publication du ChatGPT d'OpenAI et d'autres systèmes d'IA similaires ont suscité une prise de conscience quant à la manière dont ces outils peuvent générer des passages complexes de textes, d'images et de vidéos