Abdallah Al-Zakwani
Imaginez que vous êtes dans une voiture autonome, dépendant des indications données par des feux de circulation intelligents. À 200 km/h, vous réalisez que le mécanisme d’apprentissage réel est piloté par des faux positifs et que les décisions réelles prises par vos robots IA sont aléatoires. Les humains ont toujours évolué avec la peur de ce qu’ils créent. Dans la vie sociale, depuis l’invention de la roue jusqu’à l’ordinateur moderne, les humains ont toujours eu peur que la machine prenne tous nos emplois. Nous oublions toujours le fait que ces technologies nous libèrent du temps pour nous améliorer dans des choses qui comptent plus, notre santé et notre confort. Actuellement, le boom de l’IA est tombé dans la même catégorie, positif en tant que plate-forme d’opportunités et négatif en tant que « ILS PRENDRONT LE CONTRÔLE DU MONDE », pas seulement de nos emplois. La peur mise à part, il faut faire preuve de prudence non pas en rendant les robots intelligents « et en prenant le contrôle du monde », mais surtout en ce qui concerne le développement des informations et des capacités des créateurs. Il faut clairement éliminer les faux positifs et les taux d’apprentissage forcés des algorithmes d’IA, tandis que le bon (peut-être le meilleur) algorithme créé par un véritable data scientist capable de lire et de comprendre le concept qu’il met en œuvre doit être promu. Il est nécessaire d’avoir un projet comme le Kristel Clear Engine et son support pour se concentrer sur la question émergente des faux positifs et de l’intelligence émotionnelle et de leur relation.