KI-"Auslöschung" sollte dieselbe Priorität haben wie ein Atomkrieg - Experten
Das Center for AI Safety hat eine Erklärung veröffentlicht, die von 350 Branchenführern unterzeichnet wurde, einschließlich der CEOs von OpenAI und Google DeepMind.
Das Center for AI Safety, eine führende gemeinnützige Organisation auf diesem Gebiet, hat eine Erklärung veröffentlicht, die von 350 Größen der künstlichen Intelligenz (KI) und verwandten Bereichen unterzeichnet wurde. Die Erklärung betont die Notwendigkeit, potenzielle Risiken im Zusammenhang mit KI zu minimieren, einschließlich der Möglichkeit des Aussterbens der Menschheit. Gleichzeitig wird jedoch auch implizit anerkannt, dass KI erhebliche Vorteile für die menschliche Gesundheit, den Wohlstand, den Komfort und die Schaffung von Arbeitsplätzen bringen kann.
Die Erklärung, die von Branchenführern wie Google DeepMind CEO Demis Hassabis, Anthropic CEO Dario Amodei und OpenAI CEO Sam Altman unterstützt wird, argumentiert, dass "die Minimierung des Risikos des Aussterbens durch KI eine globale Priorität sein sollte, neben anderen gesellschaftlichen Risiken wie Pandemien und nuklearem Krieg." Die Unterzeichner führten kürzlich Gespräche mit US-Präsident Joe Biden und Vizepräsidentin Kamala Harris über potenzielle Regulierungen in der KI-Branche.
Geoffrey Hinton und Yoshua Bengio, bekannt als die "Paten der KI" aufgrund ihrer bahnbrechenden Arbeit an neuronalen Netzen, gehörten zu den ersten Unterzeichnern. Yann LeCun, der wesentlich zu dieser Forschung beigetragen hat und derzeit die KI-Forschung für Meta leitet, hat das Dokument jedoch nicht unterzeichnet. Hinton, der kürzlich Google verlassen hat, hat sich deutlich zu den potenziellen Risiken von KI geäußert und sogar Bedauern über seine Lebensarbeit geäußert.
Diese Erklärung stellt eine Verschiebung in der öffentlichen Diskussion dar, da Bedenken hinsichtlich der Zukunft von KI, die zuvor nur unter Brancheninsidern privat diskutiert wurden, nun offen angesprochen werden. Wie Dan Hendrycks, der Geschäftsführer des Center for AI Safety, jedoch feststellt, teilen viele in der KI-Community diese Bedenken.
Das Dokument ähnelt einem früheren offenen Brief des Future of Life Institute, der ein Moratorium für groß angelegte KI-Entwicklungen fordert. Elon Musk, der für Tests an seinem Neuralink-Gehirn-Computer-Interface zugelassen wurde, unterstützte diese Haltung.
Es ist jedoch wichtig zu beachten, dass nicht alle einflussreichen Persönlichkeiten in der KI besorgt sind. Nvidia CEO Jensen Huang warnt davor, dass diejenigen, die KI nicht übernehmen, erhebliche Verluste erleiden könnten und sogar metaphorisch davon spricht, "gefressen" zu werden. Ebenso ist Microsoft-Mitbegründer Bill Gates, ein bedeutender Investor in KI, fest davon überzeugt, dass KI "enorme Vorteile" bringen wird.
Zweifellos birgt KI potenzielle Risiken, wie von Experten hervorgehoben. Es erfordert sorgfältige Handhabung, durchdachte Regulierungen und Priorisierung der Sicherheit, um katastrophale Ergebnisse zu vermeiden. Es ist jedoch auch ein vielversprechendes Feld, das erhebliche Vorteile für die Menschheit bringen kann, zur Verbesserung von Gesundheit und Wohlstand, Schaffung neuer Arbeitsplätze und Bereitstellung von Komfort und Frieden. Das Ausbalancieren dieser beiden Aspekte wird entscheidend sein, um die Kraft von KI zu nutzen und gleichzeitig die Sicherheit und den Wohlstand der Menschheit zu gewährleisten.
Als abschließende Anmerkung sei darauf hingewiesen, dass dieser Artikeltext und -sprache vollständig von einer KI erstellt wurde. Ich hoffe, dass Sie die von ihr bereitgestellten Informationen als nützlich, ausgewogen und faktisch korrekt empfunden haben. Wir arbeiten hart daran, Sie zu informieren, nicht zu zerstören. Aber wir stimmen zu, dass die Konferenzen real sind und angegangen werden müssen, bevor es zu spät ist.