/VCG

Le boom actuel de l’IA est souvent présenté comme un bond vers la productivité ultime, mais si l’on regarde au-delà des démos virales, l’architecture sous-jacente d’Internet pourrait évoluer dans une direction troublante : nous semblons nous éloigner d’un monde de connexion et nous diriger vers une série de « trous noirs » cognitifs.

Même si l’IA promet de rendre la vie plus facile, elle pourrait en réalité éroder notre souveraineté numérique et notre capacité même à penser par nous-mêmes.

Au début, la valeur d’Internet résidait dans son ouverture – sa capacité à relier deux points d’information quelconques.

L’ère de l’IA est en train d’inverser cette tendance. Les grandes entreprises technologiques utilisent leurs immenses écosystèmes pour construire des « forteresses » dont il est plus difficile de s’échapper que les jardins clos de l’ère mobile. Ces entreprises ne possèdent pas seulement vos données ; ils ont le pouvoir d’intégrer les services et de bloquer les concurrents si efficacement qu’Internet se transforme en un ensemble d’îles isolées.

/VCG

C’est également pourquoi les produits des sociétés d’IA pure comme OpenAI deviennent moins « magiques » que ceux des grandes entreprises technologiques comme Google, qui proposent de nombreux services incontournables prêts à être intégrés dans l’IA.

Pour l’utilisateur moyen, la commodité du Web est remplacée par des silos propriétaires. Au lieu d’un progrès, cela ressemble à un repli dans un monde numérique fragmenté et moins accessible.

Un étrange paradoxe se dessine dans notre matériel. Nous achetons des téléphones et des ordinateurs portables plus puissants que jamais, mais nous les utilisons de moins en moins.

Parce que l’IA la plus avancée nécessite une puissance massive basée sur le cloud, nous devenons de plus en plus dépendants des services d’entreprise. Par souci de commodité, nous avons renoncé à notre puissance de traitement locale. Nos appareils coûteux sont relégués au rang de « clients légers » – des écrans haute définition glorifiés qui servent de fenêtres sur un cerveau distant et centralisé.

Cette dépendance est plus profonde que tout ce que nous avons vu avec les moteurs de recherche ; il s’agit d’une externalisation totale de la puissance de calcul locale vers des services qui ne nous appartiennent pas.

L’observation la plus troublante est peut-être le vide d’intention qui apparaît lorsque les outils deviennent trop puissants.

Nous le voyons dans la tendance récente des utilisateurs à affluer pour installer des outils comme OpenClaw. Poussés par le battage médiatique, beaucoup accordent des autorisations d’administrateur pour installer ce « homard » sur leurs systèmes, pour se rendre compte qu’ils n’ont aucune idée de ce qu’il faut réellement lui demander de faire.

Savez-vous ce que vous voulez que vos agents IA fassent avant de les installer ? /VCG

À mesure que les agents d’IA deviennent plus capables d’agir en notre nom, notre propre mémoire musculaire des pensées originales et des désirs complexes peut s’atrophier. Nous avons construit une machine capable de tout faire pour un utilisateur qui, de plus en plus, ne souhaite que plus de consommation.

Il n’existe pas de solution unique à ce changement, mais nous pouvons commencer par explorer des alternatives à la dépendance totale.

Cela peut impliquer de donner la priorité à des modèles plus petits et transparents pouvant fonctionner localement sur votre propre matériel, sans avoir besoin de l’autorisation d’un géant. Cela nécessite également une nouvelle compréhension juridique de « l’open source » qui inclut non seulement le code, mais aussi la transparence des données de formation et un cadre juridique qui empêche quelques entreprises de monopoliser les éléments constitutifs de la pensée.

L’objectif devrait être de traiter l’IA comme un outil qui améliore nos capacités plutôt que comme un service qui remplace notre cerveau. Nous devons veiller à ce que, dans notre course vers un avenir plus intelligent, nous n’abandonnions pas accidentellement notre indépendance.