Eine Gruppe renommierter Wissenschaftler, darunter Marcus Hutter von Googles KI-Abteilung Deepmind, veröffentlichte bereits Ende 2022 eine Studie, die besagt, dass Künstliche Intelligenz (KI) wahrscheinlich die Menschheit vernichten wird. Nun hat das Center for AI Safety (Cais), ein Forschungsinstitut, das sich mit den Risiken von KI-Systemen beschäftigt, eine Stellungnahme veröffentlicht, in der vor der Auslöschung der Menschheit durch KI gewarnt wird.

Die Stellungnahme wurde von führenden KI-Wissenschaftlern und hochrangigen Vertretern aus der Wirtschaft, darunter Sam Altman und Mira Murati von OpenAI, Lila Ibrahim von Google-Deepmind und Kevin Scott von Microsoft, unterzeichnet. Diese Warnungen betonen die Notwendigkeit, das Risiko einer KI-Auslöschung mit höchster Priorität anzugehen. Die drei führenden Technologieunternehmen Microsoft, Google und OpenAI sind sich einig über die Risiken von KI und ihre Verantwortung in der Entwicklung dieser Technologie.

Kritiker äußern jedoch Bedenken über die begrenzte Anzahl von Unternehmen, die maßgeblichen Einfluss auf die KI-Entwicklung haben, und fordern eine verantwortungsvolle Herangehensweise. Auf der I/O-Konferenz 2023 deutete Google an, dass es die Bedenken hinsichtlich KI nicht prioritär behandelt, während Microsoft KI-basierte Systeme verstärkt in seine Produktlinien integriert. Die Veröffentlichung der Stellungnahme könnte zu einem Umdenken in Bezug auf die Verantwortung der Unternehmen führen.

Musk forderte bereits im März einen Entwicklungsstopp

Der offene Brief warnt erneut vor den Gefahren der KI und vergleicht das Risiko einer KI-Auslöschung mit Bedrohungen wie Pandemien und Atomkriegen. Die Erklärung, unterzeichnet vom CEO von OpenAI, Sam Altman, und dem Autor Bill McKibben, betont die Notwendigkeit, die Konsequenzen von KI sorgfältig zu bedenken, um ähnliche Fehler wie beim Klimawandel zu vermeiden.Elon Musk und tausend andere Techpersönlichkeiten hatten bereits im März einen sechsmonatigen Entwicklungsstopp für KI gefordert, um die Risiken besser zu verstehen. Diesmal schlossen sich auch Führungskräfte von Techunternehmen wie Microsoft und Google der Erklärung an. Dan Hendrycks, Leiter des Center for AI Safety, erklärte, dass die kurze und prägnante Warnung bewusst gewählt wurde, um möglichst viele Wissenschaftler zur Einigung zu bewegen.

Es besteht jedoch Uneinigkeit über konkrete Risiken und Lösungen. Kritiker bemängeln, dass solche Warnungen von Techkonzernen oft dazu dienen, die Möglichkeiten ihrer Produkte zu betonen und von der dringenden Notwendigkeit der Regulierung aktueller KI-Anwendungen abzulenken.