Die Entscheidungsfindung von KI-Algorithmen (künstliche Intelligenz) ist so komplex, dass sie von Menschen nicht mehr nachvollzogen werden kann. Dies führt zu einem Kontrollverlust, der in vielen Fällen Probleme bringt. Irgendwann werden wir kontrolliert, so die Befürchtung. Insbesondere für die Methodik des Deep Learning gilt, dass der Mensch letztendlich die Entscheidung durch die künstliche Intelligenz nicht mehr nachvollziehen kann. Aber auch die übrigen Machine-Learning-Verfahren sind zumindest für Normalsterbliche meist nicht zu durchschauen. KI muss sich ohne IT-Expertise durchschauen lassen. Das lässt sich dadurch erreichen, dass Anbieter ihre KI-Plattformen und KI-Lösungen aufbereiten. Wird die KI so verständlicher und nachvollziehbarer gestaltet, heißt es noch nicht, dass dadurch eine bessere KI gestaltet werden kann. Dadurch dürfen auch Methoden und Entscheidungskriterien nicht eingeschränkt werden. Weniger KI und damit Kontrollierbarkeit zugunsten schlechterer Ergebnisse sollte in der Praxis immer abgewogen werden. Entscheidungen wie Kreditvergaben, Personaleinstellungen oder Schulübertritten könnten zugunsten der Transparenz weniger akkurate Ergebnisse liefern. Einen allgemeingültigen Maßstab gibt es bei der Einsatz-Entscheidung von KI nicht. Politik, Gesellschaft und Domänenexperten müssen diese Entscheidung für jeden Lebensbereich einzeln treffen, und diese Entscheidung kann künstliche Intelligenz auch nicht abnehmen.