Eine italienische Datenschutzbehörde hat ChatGPT verboten, eine künstliche Intelligenz, die auf persönlichen Daten aufbaut. Was bedeutet das für die Zukunft von AI und wie können wir sicherstellen, dass es zur Verbesserung der Gesellschaft beiträgt?

Am 31. März 2023 verkündete die italienische Datenschutzbehörde ein sofortiges Verbot der Nutzung von ChatGPT und eine Untersuchung der Verwendung persönlicher Daten durch das Tool, das aus dem 'Internet, wie es 2021 war,' abgeleitet wurde. Was sind die möglichen Folgen dieser Entscheidung, und handelt es sich hierbei um 'eine kleine Entscheidung für den Menschen, aber einen großen und entscheidenden Schritt für die Rettung der Menschheit'? Künstliche Intelligenz (KI) wurde schon immer mit Skepsis betrachtet, und die Geschwindigkeit und Menge der Bedenken, die geäußert werden, erreichen neue Höhen. Die Bedenken hinsichtlich des Einsatzes von KI und dem Grad, in dem sie menschlich betriebene Prozesse ersetzen kann, sind an sich schon ein Beweis für das Tempo des technologischen Fortschritts. Jedoch stellt sich die Frage, ob dieser technologische Fortschritt mit einem 'offenen Auge' angegangen wurde oder ob die Technologen kopfüber in eine Wand gelaufen sind, ohne das neue Niveau des digitalen Risikobewusstseins zu erkennen, das heute in der Gesellschaft existiert und die Risiken, die mit dem ungebremsten Fortschritt des mächtigen KI-Lernens verbunden sind. Globale technologische Führungsbedenken Weltweit erkennen die meisten Organisationen, dass KI unausweichlich in der zukünftigen Struktur unserer Gesellschaft eine Rolle spielen wird. Weltführer diskutieren regelmäßig über die Technologie und ihre Verwendung in Foren wie dem G7, dem G20 und dem Weltwirtschaftsforum, wo es als Technologie für den zukünftigen Nutzen der Gesellschaft diskutiert und anerkannt wird. Dies ist zwar richtig, aber zu welchem Preis und Risiko? Was ist das größere Risiko - mächtige und sensible KI-Systeme zu verwenden oder nicht das potenzielle gesellschaftliche Nutzenpotenzial auszuschöpfen, das durch ihre Verwendung möglich ist? Wenn wir uns auf eine digital geborene Gesellschaft 5.0 zubewegen, ist es wahrscheinlich, dass diejenigen Organisationen, die das Potenzial von KI ignorieren, Schwierigkeiten haben werden zu überleben. Stattdessen werden sie von Organisationen überholt, die aufkommende Technologien umarmen und durch effektives Risikomanagement zukunftsorientiertes und fortschrittliches Geschäftsstrategien ermöglichen, die von Design digital sind. Die Stimmungsmusik über KI beginnt sich jedoch grundlegend zu ändern. Abgesehen von den Maßnahmen der italienischen Datenschutzbehörde ist ein weiteres klares Beispiel für diesen Ruf nach größerer Klarheit bei der Entwicklung von KI-Entwicklungsstandards die Unterzeichnung eines offenen Briefes von OpenAI-Mitbegründer Elon Musk, der einen Stopp des Trainings von leistungsstarken KI-Systemen aus Angst vor einer Bedrohung für die Menschheit fordert, bis solche KI-Systeme entwickelt sind. Die Tatsache, dass der offene Brief nicht nur von Musk, sondern auch von Apple-Mitbegründer Steve Wozniak unterschrieben wurde, ist ein klares Statement der Besorgnis einiger der prominentesten Technologieführer weltweit. Die Tatsache, dass der offene Brief innerhalb der ersten Wochen nach Veröffentlichung fast 20.000 Unterschriften von führenden Akademikern und Technologen erhielt, ist ein Zeugnis der sich entwickelnden gesellschaftlichen Besorgnis. Die Motive für das Verbot der italienischen Datenschutzbehörde, das nun in Verbindung mit einer Reihe ihrer europäischen Kollegen, einschließlich der irischen und britischen Kollegen, steht, gehen über den Wettbewerb hinaus, da Microsoft OpenAI's ChatGPT sponsered hat. Präkognition von KI-Risiken Auf dem aktuellen Betriebsniveau haben KI-Systeme nicht die Präkognition erreicht, die in Steven Spielbergs Film Minority Report aus dem Jahr 2002 identifiziert wurde, der auf der gleichnamigen Science-Fiction-Novelle von Philip K. Dick aus dem Jahr 1956 basiert. Die größten Risiken heute konzentrieren sich jedoch auf Menschen und die Auswirkungen des unkontrollierten Voranschreitens von KI-Systemen.