Connect with us

Discrimination

Peut-on faire confiance à l’IA ? Les chercheurs suggèrent un cadre pour explorer cette problématique.

Publié

on

Une équipe de chercheurs internationaux a élaboré un cadre dédié à la confiance en l’intelligence artificielle (IA), réponse à un enjeu crucial pour son adoption par les entreprises et les gouvernements.

Roger Mayer, co-auteur de l’étude, souligne l’importance de cette confiance pour que l’IA soit intégrée dans des prises de décisions significatives.

Le cadre, appelé TrustNet, émerge d’une collaboration transdisciplinaire, regroupant des domaines tels que la psychologie, l’éthique et l’impact sociétal.

En scrutant 34 459 études, les chercheurs recommandent d’intensifier les recherches transdisciplinaires pour mieux appréhender les défis liés à la désinformation, la discrimination et d’autres risques associés à l’utilisation de l’IA.

Le TrustNet encourage une approche qui relie directement le défi de la confiance à des connaissances scientifiques pratiques et qui intègre divers points de vue, notamment ceux des utilisateurs et des décideurs.

Les chercheurs préconisent également d’explorer comment l’IA pourrait évaluer la fiabilité humaine et développer une confiance entre systèmes d’IA.

Frank Krueger met en avant que la confiance est fondamentale pour toute interaction, appelant à une réévaluation continue du rôle des technologies d’IA dans nos vies.

Discrimination

Donald Trump signe un décret pour empêcher les États américains d’appliquer leurs propres réglementations en matière d’IA en français

Publié

on

Le président américain Donald Trump a signé un décret visant à empêcher les États d’élaborer leurs propres réglementations en matière d’intelligence artificielle (IA), affirmant que l’industrie en plein essor risque d’être étouffée par une mosaïque de règles onéreuses alors qu’elle se bat pour la suprématie avec ses concurrents chinois.

Les membres du Congrès des deux partis, ainsi que les groupes de défense des libertés civiles et des droits des consommateurs, ont fait pression pour davantage de réglementation sur l’IA, affirmant qu’il n’y a pas suffisamment de surveillance pour cette puissante technologie.

Mais Trump a déclaré jeudi aux journalistes dans le Bureau ovale qu’« il n’y aura qu’un seul gagnant » alors que les nations se battent pour dominer l’intelligence artificielle, et que le gouvernement central chinois donne à ses entreprises un seul endroit où s’adresser pour obtenir les approbations gouvernementales.

« Nous avons de gros investissements à venir, mais s’ils devaient obtenir 50 approbations différentes de 50 États différents, vous pouvez l’oublier parce que c’est impossible à faire », a déclaré Trump.

Le décret ordonne au procureur général de créer un nouveau groupe de travail chargé de contester les lois des États et ordonne au ministère du Commerce de dresser une liste des réglementations problématiques.

Cela menace également de restreindre le financement d’un programme de déploiement du haut débit et d’autres programmes de subventions aux États dotés de lois sur l’IA.

David Sacks, un capital-risqueur qui investit massivement dans l’IA et qui dirige les politiques de Trump en matière de crypto-monnaie et d’intelligence artificielle, a déclaré que l’administration Trump ne ferait que repousser « les exemples les plus onéreux de réglementation étatique », mais ne s’opposerait pas aux mesures de « sécurité des enfants ».

Ce que les États ont proposé

Quatre États – le Colorado, la Californie, l’Utah et le Texas – ont adopté des lois fixant certaines règles pour l’IA dans le secteur privé, selon l’Association internationale des professionnels de la vie privée.

Ces lois incluent la limitation de la collecte de certaines informations personnelles et exigent plus de transparence de la part des entreprises.

Les lois répondent à l’IA qui imprègne déjà la vie quotidienne.

La technologie aide les Américains à prendre des décisions importantes, notamment celles qui obtiendront un entretien d’embauche, un bail d’appartement, un prêt immobilier et même certains soins médicaux.

Mais des recherches ont montré qu’il peut commettre des erreurs dans ces décisions, notamment en donnant la priorité à un sexe ou une race en particulier.

Les propositions plus ambitieuses des États en matière de réglementation de l’IA exigent que les entreprises privées fassent preuve de transparence et évaluent les risques possibles de discrimination liés à leurs programmes d’IA.

Au-delà de ces règles plus strictes, de nombreux États du pays ont réglementé certains aspects de l’IA : interdisant l’utilisation de deepfakes lors des élections et pour créer de la pornographie non consensuelle, par exemple, ou mettant en place des règles concernant l’utilisation de l’IA par le gouvernement. avec un minimum de 2 paragraphes

Continuer à lire

Discrimination

La FTC retire les publications de l’époque de Lina Khan concernant les risques liés à l’IA et à l’open source.

Publié

on

La Federal Trade Commission (FTC) a récemment supprimé trois articles de blog liés à l’intelligence artificielle open source et à ses risques potentiels pour les consommateurs, un changement de cap notable sous l’administration Trump.

Ces articles, écrits par l’équipe de Lina Khan, abordaient des préoccupations comme la surveillance commerciale et la discrimination.

TechCrunch a tenté d’obtenir des clarifications de la FTC, mais Khan a refusé de commenter.

Ce mouvement s’inscrit dans un contexte plus large où des décrets de l’administration Trump ont ordonné la suppression de nombreux contenus gouvernementaux, avec une direction de la FTC désormais orientée vers une déréglementation des grandes technologies, loin des préoccupations antitrust emphasiées par Khan.

Cette suppression n’est pas un cas isolé ; la FTC a également effacé environ 300 publications pertinentes sur l’IA et la protection des consommateurs plus tôt dans l’année.

De nombreuses autres publications datant des années précédentes restent accessibles, mais aucune nouvelle publication n’a émané de la direction actuelle.

Le retrait de ces documents soulève des inquiétudes concernant la conformité aux lois fédérales sur les archives et l’accès aux données gouvernementales.

Le contenu antérieur à l’administration Biden est désormais accompagné de mises en garde, reflétant un désaccord sur la manière dont ces questions doivent être traitées.

Continuer à lire

Discrimination

L’enseignant, nouvel architecte de l’IA et des PromptOps.

Publié

on

Microsoft révèle avoir déjoué une fraude de 4 milliards de dollars.

À mesure que l’utilisation de l’IA générative se généralise, une intégration appropriée est cruciale pour éviter des erreurs coûteuses.

De nombreuses entreprises, malgré leurs investissements dans la formation de nouveaux employés, négligent souvent de fournir une éducation adéquate à leurs systèmes d’IA, les considérant uniquement comme des outils.

Cette approche peut entraîner des dérives et des résultats imprécis, comme l’a montré une étude démontrant que, d’ici 2024-2025, une proportion significative d’entreprises a connu une forte augmentation de l’utilisation et de l’acceptation de l’IA.

Ne pas superviser ces systèmes expose les entreprises à des risques juridiques et réputationnels dus à des erreurs, allant de la désinformation à la discrimination, en passant par des fuites de données.

Pour une intégration réussie, les entreprises doivent traiter les agents d’IA comme de véritables employés, en établissant des rôles précis, en fournissant une formation appropriée et en mettant en place des mécanismes de rétroaction et d’évaluation continue.

Cela inclut la simulation avant le déploiement, la mise en œuvre de contrôles de sécurité et de conformité, ainsi que des vérifications régulières pour s’assurer que le système reste aligné sur les objectifs commerciaux.

Alors que l’IA devient intégrée dans divers processus d’entreprise, une stratégie rigoureuse d’intégration permettra non seulement d’améliorer la confiance des utilisateurs mais aussi de maximiser l’efficacité opérationnelle.

Continuer à lire

Populaires