
TSon est un paradoxe dans lequel de nombreux développeurs d’intelligence artificielle (IA) se retrouvent enchevêtrés: pourquoi investir autant d’argent et d’efforts pour créer une IA plus sûre et plus neutre si, une fois libéré, ces chatbots peuvent être si facilement subvertis?
Prenez le cas d’Openai. En avril, le créateur de Chatgpt a annoncé qu’elle envisageait de rendre son chatbot moins sycophantique, craignant de faire des individus vulnérables dans des dépendances malsaines, selon les résultats de ses propres chercheurs un mois plus tôt. Plusieurs médias, notamment par le New York Times, ARS Technica, Futurism et Reuters, ont illustré la spirale dangereuse que certains utilisateurs peuvent entrer, résultant parfois une rupture fatale de la réalité.
Ainsi, le 7 août, Openai a franchi le pas et a annoncé une nouvelle version de son chatbot, GPT-5. Son ton est devenu sensiblement plus froid, et il surveille maintenant la durée des conversations pour suggérer des pauses lorsqu’elles sont jugées nécessaires.
Avec cela, la société a mis en œuvre deux recommandations clés de certains des chercheurs les plus critiques de l’IA, y compris des experts de Google, qui ont rédigé une revue détaillée des dangers d’IA en 2024. Dans ce document, ils ont prévu un monde dans lequel la flatterie de chatbot “pourrait limiter les opportunités des utilisateurs pour se développer et développer [into] De meilleures versions de nous-mêmes. “Ou même” un avenir où les utilisateurs abandonnent les interactions compliquées, imparfaites et désordonnées avec les humains en faveur des échanges sans friction fournis par les assistants avancés de l’IA. “
Vous avez 73,2% de cet article à lire. Le reste est réservé aux abonnés.