Am 6. und 9. August j?hren sich die Atombombenabw?rfe auf Hiroshima und Nagasaki. Sie sind Mahnmale f?r eine Technologie, deren Folgen bis heute nachwirken. Was einst als milit?rischer Fortschritt gefeiert wurde, erwies sich letztendlich als humanit?re Katastrophe mit verheerenden Sp?tfolgen. Angesichts der zunehmenden Debatten ?ber k?nstliche Intelligenz stellt sich erneut die Frage: Lernen wir rechtzeitig, mit der Verantwortung f?r derart m?chtige Technologien umzugehen?
Vor 80 Jahren explodierte in der W?ste von New Mexico die erste Atombombe. Dieser technologische Wendepunkt hatte weitreichende ethische, politische und f?r viele Menschen auch gesundheitliche Folgen. Urspr?nglich zur Abwehr eines m?glichen deutschen Atomprogramms entwickelt, wurde die Bombe schlie?lich in Hiroshima und Nagasaki eingesetzt. Die erste Atombombe wurde „Little Boy“ getauft. Die zweite hie? „Fat Man“. Bereits beim ersten Test verseuchte der radioaktive Fallout weite Teile Nordamerikas, ohne dass die Bev?lkerung gewarnt oder gesch?tzt wurde. Die gesundheitlichen Sp?tfolgen betreffen bis heute Menschen in den USA, Kanada und Mexiko. Der Umgang mit Informationen und gesundheitlichen Risiken weist Parallelen zu sp?teren Atomkatastrophen wie Fukushima auf. Kritiker betonen, dass mit wachsendem technologischem Aufwand auch die Tendenz zur Verharmlosung steigt.
Diese Bef?rchtung teilt auch die Physikerin und Neurowissenschaftlerin Mag.a Monika Herbstrith-Lappe, die sich bereits als junge Physikerin mit ethischen Fragen zum Thema Atombombe befasste: „Ich sehe eine ?hnliche Entwicklung bei der derzeitigen Debatte um die Risiken und Chancen der KI. Ich pl?diere daher f?r einen „Digitalen Humanismus“, der Menschlichkeit, W?rde und Werte ins Zentrum technologischer Entwicklungen stellt.“ In ihrem wegweisenden Vortrag „Mehr digital erm?glicht mehr menschlich – New Work in Zeiten der KI“ geht die Keynote Speakerin vertiefend auf das komplexe Zusammenspiel von Ethik, Digitalisierung, New Work und Future Skills ein. Dabei bezieht sie sich auch auf das bereits 2001 vom Forscher Eliezer Yudkowsky formulierte Konzept der „Friendly AI“. Dieses Konzept gewinnt zunehmend an Bedeutung. Es fordert, KI-Systeme so zu gestalten, dass sie menschliche Werte achten und dem Gemeinwohl dienen. Angesichts der wachsenden Leistungsf?higkeit von KI wird eine ethisch fundierte Gestaltung dieser Technologie tats?chlich immer wichtiger.
Die Arbeitswelt wird durch KI immer un?bersichtlicher und die Ergebnisse von Algorithmen f?r das Gehirn immer schwerer nachvollziehbar. Damit stellen sich neue und herausfordernde Fragen. Gleichzeitig nehmen uns KI und Digitalisierung immer mehr standardisierte und damit eher langweilige Arbeiten ab. Nach ?berzeugung der Physikerin liegt es nun an uns, Entscheidungen der KI aus einer Perspektive der Menschlichkeit und Ethik zu hinterfragen und zu bewerten, um nicht die gleichen Fehler wie vor 80 Jahren zu begehen. Nur so k?nnen wir Diskriminierung verhindern und weiterhin werteorientiert handeln. „In diesem Zusammenhang werden sich durch KI und New Work auch neue Freir?ume f?r zwischenmenschliche Beziehungen ergeben. Bisher wenig beachtete Kompetenzen werden zu Future Skills, die es jetzt zu st?rken gilt. Wer erfolgreich mit K?nstlicher Intelligenz arbeiten will, muss sich abseits der bekannten Denkpfade bewegen – Umwege, Irrwege und gedankliche Sackgassen eingeschlossen“, betont Mag.a Monika Herbstrith-Lappe.
Keywords:Zukunft, Zuversicht, KI, Ethik, Atombombe, New Work, Werte
Powered by WPeMatico