Connect with us

Entreprise

PWC dévoile l’accès à l’outil sécurisé destiné aux agents de l’IA d’entreprise.

Publié

on

La récente décision de PWC d’intégrer le protocole de contexte du modèle (MCP) dans son agent OS marque un tournant important dans l’intelligence artificielle d’entreprise.

Cette initiative vise à surmonter les limitations des infrastructures fragmentées, en permettant aux agents intelligents d’accéder de manière standardisée aux outils et systèmes.

En intégrant la conformité et la sécurité directement dans l’architecture, PWC propose une solution adaptée aux industries réglementées, garantissant ainsi un accès sécurisé et une gestion efficace des données.

Cette évolution s’inscrit dans une tendance plus large au sein de l’industrie, visant à maturer les architectures basées sur les agents.

L’approche de PWC met l’accent sur la gouvernance au niveau du protocole, avec des audits de sécurité, une gestion rigoureuse des accès et le traitement sécurisé des informations sensibles.

Les entreprises doivent maintenant s’efforcer de convertir leurs projets pilotes en systèmes opérationnels robustes, nécessitant des cadres d’interopérabilité et de gouvernance performants pour garantir une collaboration sécurisée entre différents agents.

Entreprise

Google envisagerait de rompre ses liens avec l’échelle de l’IA.

Publié

on

Meta a récemment intensifié ses investissements dans l’intelligence artificielle, ce qui pourrait affecter les relations avec certains clients de la startup Scale.

Selon des informations de Reuters, Google prévoit de réduire ses engagements financiers envers Scale, initialement de 200 millions de dollars, et discute également avec d’autres concurrents.

Microsoft et OpenAI pourraient également limiter leurs collaborations, bien qu’OpenAI ait affirmé qu’elle continuera de travailler avec Scale.

Scale, qui collabore avec des entreprises d’IA et des entités comme le gouvernement américain, se concentre sur la fourniture de travailleurs spécialisés pour annoter des données.

Malgré les changements dans ses relations clients, Scale assure que ses activités demeurent robustes et qu’elle fonctionnera de manière indépendante tout en préservant la confidentialité des données de ses clients.

Par ailleurs, des rapports antérieurs indiquent qu’un investissement de 14,3 milliards de dollars de Meta a permis à l’entreprise d’acquérir une participation de 49 % dans Scale, le PDG Alexandr Wang aidant à développer des projets de superintelligence.

Continuer à lire

Entreprise

Mattel s’allie à OpenAI pour lancer des jouets intelligents en 2025.

Publié

on

Mattel a établi un partenariat avec OpenAI pour créer une nouvelle gamme de jouets et de jeux intégrés à l’intelligence artificielle, avec un premier produit prévu pour cette année.

Ce partenariat vise à concevoir des expériences de jeu adaptées aux enfants tout en respectant les normes de confidentialité et de sécurité, dans le cadre d’une stratégie d’innovation plus large.

Mattel, déjà connu pour ses marques comme Barbie et Hot Wheels, cherche à répondre aux défis de l’industrie du jouet, face à une demande en baisse et à des coûts opérationnels en hausse.

En parallèle du développement de ces jouets, Mattel utilisera les outils d’OpenAI, tels que ChatGPT, pour optimiser ses opérations internes et soutenir l’innovation.

Le directeur de l’exploitation d’OpenAI a souligné que cette collaboration permettrait de renforcer la productivité et la créativité au sein de l’entreprise.

En réaction aux pressions économiques récentes, Mattel a également retiré ses prévisions annuelles et prévoit d’augmenter les prix de certains produits domestiques.

Le lancement du premier jouet IA est prévu pour la seconde moitié de 2025, tandis qu’OpenAI a également lancé O3-Pro, son modèle d’IA le plus avancé à ce jour.

Continuer à lire

Entreprise

New York met en place une législation pour prévenir les catastrophes causées par l’IA.

Publié

on

Les législateurs de New York ont adopté une loi visant à limiter les risques associés aux modèles d’intelligence artificielle (IA) de grandes entreprises comme OpenAI et Google.

Cette législation, qui pourrait établir des normes de transparence pour ces technologies, a été saluée par des experts en sécurité comme Geoffrey Hinton et Yoshua Bengio.

Elle nécessiterait que les laboratoires d’IA publient des rapports de sécurité et signalent tout incident lié à leur technologie, sous peine de pénalités pouvant atteindre 30 millions de dollars.

Conçue pour ne pas freiner l’innovation, cette loi se distingue d’un projet antérieur en Californie, qui avait suscité des critiques.

Cependant, elle a aussi rencontré des résistances de l’industrie technologique, certains craignant qu’elle n’entraîne un retrait des entreprises d’un marché aussi crucial que celui de New York.

Malgré ces préoccupations, les soutiens du projet estiment qu’il est essentiel pour gérer les risques associés à l’évolution rapide des IA.

Continuer à lire

Populaires