{"id":1658,"date":"2025-10-23T21:44:19","date_gmt":"2025-10-23T19:44:19","guid":{"rendered":"https:\/\/aeon-z.org\/?p=1658"},"modified":"2025-10-23T21:47:22","modified_gmt":"2025-10-23T19:47:22","slug":"breite-gesellschaftliche-allianz-fordert-stopp-von-superintelligenz-entwicklung","status":"publish","type":"post","link":"https:\/\/aeon-z.org\/?p=1658","title":{"rendered":"Breite gesellschaftliche Allianz fordert Stopp von Superintelligenz-Entwicklung"},"content":{"rendered":"<p style=\"text-align: left;\"><span style=\"color: #000000;\">Eine ungew\u00f6hnlich vielf\u00e4ltige Allianz aus Tech-Pionieren, Wissenschaftlern, religi\u00f6sen Vertretern und Prominenten hat in einem offenen Brief ein sofortiges Verbot der Entwicklung von sogenannter \u00bbSuperintelligenz\u00ab gefordert. Der vom \u203aFuture of Life Institute\u2039 (FLI) initiierte <a href=\"https:\/\/superintelligence-statement.org\/\" target=\"_blank\" rel=\"noopener\">Aufruf<\/a>, betitelt als \u00bbStatement on Superintelligence\u00ab, verlangt ein Entwicklungsverbot, das erst aufgehoben werden soll, wenn ein breiter wissenschaftlicher Konsens \u00fcber Sicherheit und Kontrollierbarkeit besteht \u2013 und wenn die \u00d6ffentlichkeit zustimmt.<\/span><\/p>\n<blockquote>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Statement on Superintelligence<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">\u00bbKontext: Innovative KI-Werkzeuge k\u00f6nnten zu einem nie dagewesenen Ma\u00df an Wohlstand und gesundheitlichem Fortschritt f\u00fchren. Gleichzeitig verfolgen jedoch viele f\u00fchrende KI-Unternehmen das erkl\u00e4rte Ziel, in den kommenden zehn Jahren eine Superintelligenz (AGI) zu entwickeln, die den Menschen in nahezu allen kognitiven Aufgaben deutlich \u00fcberlegen ist. Dies hat Bedenken ausgel\u00f6st \u2013 von wirtschaftlicher Verdr\u00e4ngung und Entmachtung des Menschen \u00fcber den Verlust von Freiheit, B\u00fcrgerrechten, W\u00fcrde und Kontrolle bis hin zu Risiken f\u00fcr die nationale Sicherheit und sogar der m\u00f6glichen Ausl\u00f6schung der Menschheit. Die folgende pr\u00e4gnante Stellungnahme soll das wachsende Bewusstsein f\u00fcr die zunehmende Zahl von Expertinnen, Experten und \u00f6ffentlichen Pers\u00f6nlichkeiten f\u00f6rdern, die sich gegen ein \u00fcberst\u00fcrztes Vorgehen hin zur Superintelligenz aussprechen.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Wir fordern ein Verbot der Entwicklung von Superintelligenz, das erst aufgehoben werden darf, wenn<\/span><\/p>\n<ul>\n<li style=\"text-align: left;\"><span style=\"color: #000000;\">ein breiter wissenschaftlicher Konsens dar\u00fcber besteht, dass dies sicher und kontrollierbar erfolgen kann, und<\/span><\/li>\n<li style=\"text-align: left;\"><span style=\"color: #000000;\">eine starke \u00f6ffentliche Zustimmung vorliegt.\u00ab<\/span><\/li>\n<\/ul>\n<\/blockquote>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Zu den Unterzeichnern z\u00e4hlen namhafte Pers\u00f6nlichkeiten wie Apple-Mitgr\u00fcnder Steve Wozniak, Virgin-Gr\u00fcnder Richard Branson, der rechte Medienkommentator Steve Bannon, Schauspieler Joseph Gordon-Levitt, das Herzogspaar Harry und Meghan, sowie renommierte KI-Forscher wie Yoshua Bengio und Geoffrey Hinton, beide als \u00bbGodfathers of AI\u00ab bekannt. Auch Paolo Benanti, der KI-Berater des Papstes, und der fr\u00fchere US-Milit\u00e4rchef Mike Mullen unterst\u00fctzen den Appell.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Laut FLI-<a href=\"https:\/\/futureoflife.org\/recent-news\/americans-want-regulation-or-prohibition-of-superhuman-ai\/\" target=\"_blank\" rel=\"noopener\">Umfrage<\/a> bef\u00fcrworten nur f\u00fcnf Prozent der US-Amerikaner eine unregulierte Weiterentwicklung von Hochleistungs-KI, w\u00e4hrend \u00fcber 70 Prozent eine strenge Regulierung w\u00fcnschen. Rund zwei Drittel sprachen sich gegen den Bau einer Superintelligenz aus, solange deren Sicherheit nicht nachgewiesen ist.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Bengio warnte in einer begleitenden Stellungnahme, KI-Systeme k\u00f6nnten bald in vielen kognitiven Bereichen Menschen \u00fcbertreffen. \u00bb<em>Diese Fortschritte k\u00f6nnten globale Probleme l\u00f6sen, bergen aber erhebliche Risiken<\/em>\u00ab, sagte er. Notwendig seien wissenschaftliche Methoden, um KI so zu gestalten, dass sie Menschen grunds\u00e4tzlich keinen Schaden zuf\u00fcgen k\u00f6nne.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Bemerkenswert ist, wer nicht unterzeichnete: Weder Elon Musk, der 2023 noch einen \u00e4hnlichen FLI-Brief unterschrieben hatte, noch Sam Altman (OpenAI), Mustafa Suleyman (DeepMind\/Microsoft) oder Dario Amodei (Anthropic) fanden sich unter den Namen.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">W\u00e4hrend fr\u00fchere Appelle kaum Wirkung zeigten \u2013 etwa vor dem Erscheinen von GPT-5 im Sommer 2025 \u2013, verdeutlicht das neue Schreiben die wachsende politische und gesellschaftliche Einigkeit dar\u00fcber, dass die Entwicklung K\u00fcnstlicher Intelligenz demokratisch kontrolliert werden m\u00fcsse.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">\u00bb<em>Niemand, der diese Systeme entwickelt, hat die Menschheit gefragt, ob das in Ordnung ist<\/em>\u00ab, sagte FLI-Mitgr\u00fcnder Anthony Aguirre. \u00bb<em>Wir haben gefragt \u2013 und die Antwort lautet: Es ist nicht akzeptabel<\/em>.\u00ab<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"font-size: 8pt; color: #000000;\"><small>\u00a9 \u00c6ON-Z e.V. Thinktank. Alle Rechte vorbehalten, all rights reserved. Nachdruck und Weitergabe an Dritte untersagt.<\/small><\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Eine ungew\u00f6hnlich vielf\u00e4ltige Allianz aus Tech-Pionieren, Wissenschaftlern, religi\u00f6sen Vertretern und Prominenten hat in einem offenen Brief ein sofortiges Verbot der Entwicklung von sogenannter \u00bbSuperintelligenz\u00ab gefordert. Der vom \u203aFuture of Life Institute\u2039 (FLI) initiierte Aufruf, betitelt als \u00bbStatement on Superintelligence\u00ab, verlangt ein Entwicklungsverbot, das erst aufgehoben werden soll, wenn ein breiter wissenschaftlicher Konsens \u00fcber Sicherheit und&nbsp;&hellip;<\/p>\n","protected":false},"author":2,"featured_media":1659,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[26,25,18],"tags":[],"class_list":["post-1658","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-ki","category-soziales","category-zukunft"],"_links":{"self":[{"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/posts\/1658","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/aeon-z.org\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1658"}],"version-history":[{"count":3,"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/posts\/1658\/revisions"}],"predecessor-version":[{"id":1662,"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/posts\/1658\/revisions\/1662"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aeon-z.org\/index.php?rest_route=\/wp\/v2\/media\/1659"}],"wp:attachment":[{"href":"https:\/\/aeon-z.org\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1658"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aeon-z.org\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1658"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aeon-z.org\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1658"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}