This website uses our own cookies to collect information in order to improve our services, and to analyse users' browsing habits. Your continued use of this website constitutes acceptance of the installation of these cookies. The user has the option of configuring their browser in order to prevent cookies from being installed on their hard drive, although they must keep in mind that doing so may cause difficulties in their use of the webpage.
Künstliche Intelligenz (KI) ist seit vielen Jahren Teil unseres Lebens, doch mit der Einführung von ChatGPT ist sie in letzter Zeit immer mehr in den Fokus gerückt. Dieser und ähnliche „Chatbots“ stehen der Öffentlichkeit kostenlos zur Verfügung und sie können Antworten auf schriftliche Fragen erstellen, die sehr menschlich klingen. Sie können ein Gespräch führen oder ihn bitten, Aufsätze zu einer endlosen Vielfalt von Themen zu schreiben. Die neuesten Versionen können sogar komplexere Aufgaben wie das Schreiben von Computercodes ausführen. KI hat das Potenzial, positive Veränderungen in unserer Welt herbeizuführen, doch birgt diese Technologie auch Gefahren.
Positiv ist, dass KI viele Aufgaben automatisieren kann, die heute manuell von Menschen erledigt werden. Dies könnte die Effizienz und Produktivität in Branchen wie Fertigung, Transport und Logistik steigern. Das Gesundheitswesen könnte verändert werden, da KI Daten schnell analysieren kann, um bei der Diagnose von Krankheiten und der Entwicklung personalisierter Behandlungspläne zu helfen. Auch der Schutz unserer Umwelt könnte durch KI so organisiert werden, dass der Energieverbrauch genau überwacht und reduziert wird.
ChatGPT
Die Kehrseite ist natürlich, dass Millionen von Menschen in nahezu allen Bereichen der Gesellschaft ihren Arbeitsplatz verlieren könnten. Arbeitsplätze im verarbeitenden Gewerbe, im Einzelhandel und im Büro wären am stärksten betroffen. Auch die Fähigkeit der KI, große Mengen personenbezogener Daten zu sammeln und zu analysieren, birgt Gefahren. Es kann die Privatsphäre verletzen und die persönliche Sicherheit (Passwörter usw.) gefährden. Ein weiteres mögliches Problem besteht darin, sich zu sehr auf KI zu verlassen und so übermäßig von der Technologie abzuhängen. Sie sind dann hilflos, wenn ein System ausfällt oder kompromittiert wird. Darüber hinaus können KI-Systeme mit einer Voreingenommenheit erstellt werden. Dies könnte zu einer unfairen Behandlung bestimmter Personengruppen führen, insbesondere in Bereichen wie der Strafjustiz und Einstellungspraktiken.
Auge mit verschiedenen Farben
Diese letzten beiden Absätze wurden von ChatGPT geschrieben, als ich es bat, die positiven und negativen Aspekte von KI zu bewerten ... und es schrieb die Antwort in nur 10 Sekunden! Das ist ziemlich beeindruckend, vor allem wenn man bedenkt, dass jeden Monat neue Chatbots herauskommen, die noch umfassender sind. Werfen wir einen genaueren Blick darauf, wie sich künstliche Intelligenz entwickelt hat und wohin sie führen könnte. Die meisten Menschen kennen frühere Versionen der KI, die relativ einfach sind und sich nur einer Aufgabe widmen. Eine GoogleSuche nutzt KI, um Informationen im Internet zu finden. Google Maps geht noch einen Schritt weiter, indem es Standortdaten von Smartphones mit anderen Informationen koordiniert, um Ihre Fahrtroute auszuwählen. Persönliche Assistenten wie Siri, Alexa und Cortana nutzen die Sprachverarbeitung, um Anweisungen zu empfangen oder nach Online-Informationen zu suchen.
Schachbrett
KI wird immer komplexer und unabhängiger
ChatGPT ist ein Beispiel für eine komplexere Art von KI, die als „neuronales Netzwerk“ bezeichnet wird. Es handelt sich um ein mathematisches System, das Fähigkeiten erlernt, indem es Daten analysiert und speichert. Chatbots werden erstellt, indem sie riesigen Mengen digitaler Texte ausgesetzt werden, darunter Bücher, Nachrichtenartikel und andere aus dem Internet ausgewählte Informationen. Sie absorbieren buchstäblich Milliarden von Schreibmustern und lernen so, wie sie ihren eigenen Text erstellen. Selbstfahrende Autos sind ein weiteres Beispiel für ein Deep Learning Neuronales Netzwerk. Sie lernen, Objekte in ihrer Umgebung zu erkennen, ihren Abstand zu anderen Autos zu bestimmen, Verkehrssignale zu erkennen usw. (Nebenbei bemerkt: Ich bin äußerst skeptisch, was die Sicherheit von Autos angeht, die von Robotercomputern gesteuert werden – aber das ist eine Diskussion für einen zukünftiger Artikel.) Ein Computerprogramm namens MuZero bringt Deep Learning auf eine neue Bewusstseinsebene. Es hat es geschafft, Spiele zu meistern, die man ihm noch nicht einmal beigebracht hat, darunter Schach und eine ganze Reihe von Atari-Spielen. Es lernt dadurch, dass es die Spiele millionenfach immer wieder spielt.
Roboter und menschlicher Zeigefinger berühren sich
KI-Systeme entwickeln sich zu neu en Ebenen der Komplexität und Experten warnen uns vor den Gefahren, die mit diesem „Fortschritt“ einhergehen. Dr. Geoffrey Hinton ist als „der Pate der KI“ bekannt, und doch hat selbst er ernsthafte Bedenken geäußert und gesagt: „Es ist schwer vorstellbar, wie man schlechte Menschen davon abhalten kann, KI für schlechte Dinge zu nutzen.“ Eine „schlechte Sache“, die bereits an die Oberfläche gekommen ist, ist der Einsatz von KI zur Erstellung von „Deep Fake“Videos von Menschen, Orten und Ereignissen. Diese sehen unglaublich echt aus und werden zur Verbreitung falscher Informationen verwendet. Aber das ist nur die Spitze des Eisbergs. GPT 4 ist die neueste Version von ChatGPT und das System wurde vor seiner Veröffentlichung getestet, um festzustellen, ob es für gefährliche Zwecke verwendet werden könnte. Man fand heraus, dass es leicht zu überzeugen war, negative Informationen zu geben: wie man illegale Schuss Waf fen online kauft; Möglichkeiten, aus Haushaltsgegenständen Schadstoffe herzustellen; und das Schreiben von Facebook-Posts, um Frauen davon zu überzeugen, dass Abtreibungen unsicher sind. Dieses KI System war auch clever genug, um den „Captcha“-Test zu besiegen, der häufig zur Identifizierung von Bots im Internet verwendet wird.
Computercode
Was kann also getan werden, um die Sicherheit der KI zu gewährleisten? Die Europäische Union erwägt ein Gesetz zur Regulierung von KI Technologien, die Schaden anrichten könnten, einschließlich Gesichtser- kennungssystemen. Unternehmen müssten Risikobewertungen von KI Technologien durchführen, um festzustellen, wie sich ihre Anwendungen auf Gesundheit, Sicherheit und individuelle Rechte auswirken könnten. Dies scheint etwas vage zu sein, und bei Redaktionsschluss war das Gesetz noch nicht verabschiedet.
Auch aus der TechWelt gibt es ernsthafte Bedenken. Mehr als 1.000 Technologieführer und For- scher, darunter Elon Musk, haben einen offenen Brief veröffentlicht, in dem sie Labore für künstliche Intelligenz dazu auffordern, die Arbeit an den fortschrittlichsten Systemen einzustellen. „Die Entwicklung leistungsstarker KI-Systeme sollte nur voranschreiten, wenn wir davon überzeugt sind, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sind.“ Sie warnen: „KI-Entwickler befinden sich in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann. Dies stellt ein großes Risiko für die Gesellschaft und die Menschheit dar.“
Süßer Roboter
Ihre Ängste gehen weit über Probleme wie Deep Fakes oder Gesichtserkennung hinaus. Der Heilige Gral für viele KI-Forscher ist die Schaffung einer Maschine, die sich ihrer selbst bewusst ist und über eine breit angelegte Intelligenz verfügt, die für jede Aufgabe eingesetzt werden kann. Man nennt es künstliche allgemeine Intelligenz, und das End- ergebnis könnten dominierende Roboter sein, wie wir sie in zahlreichen Science-Fiction-Büchern und -Filmen gesehen haben: „Matrix“, „Westworld“, „Star Trek“ usw. Im Moment scheint es, dass unsere Technologie nicht annähernd auf diesem Niveau ist. Aber wie wird die Zukunft aussehen? Wird KI ein wunderbares Werkzeug sein, das unser Leben interessanter und produktiver macht, oder werden wir zu Sklaven unserer Roboterherren?