Die Frage nach der Verantwortlichkeit von Künstlicher Intelligenz soll in Coburg beantwortet werden. Auf dem ehemaligen Schlachthofareal - gegenüber der alten Kühlhalle - entsteht dazu das Center of Responsible AI (Crai). Im nächsten Jahr soll hier geforscht und gelehrt werden.
„Warum haben Menschen in Coburg keine Angst vor Vampiren? Weil der Vampir Blut und keine Coburger Bratwurst will.“ Dieser – nicht wirklich gute – Witz stammt aus Feder der künstlichen Intelligenz (KI) ChatGPT. Wir hatten diese KI nach einem Witz über Coburg gefragt, das war die Antwort. Hier gehen die Fragen nun los. Dürfen wir diesen Witz verwenden? Müssen wir angeben, dass er von einer KI geschrieben wurde? Wer ist Urheber?
Für diesen Witz lassen sich diese Fragen wohl sehr leicht beantworten. Eine ausreichende schöpferische Leistung für ein schützenswertes Werk hat ChatGPT nicht erbracht. Wenn eine KI aber Entscheidungen mit größeren Auswirkungen treffen muss, bleiben diese Fragen nicht aus. Dabei muss es gar nicht mal die Entscheidung eines selbstfahrenden Autos sein, ob im Falle eines Unfalls das Auto gegen den Baum, in ein Kind oder in eine Gruppe Erwachsener gelenkt wird.
Auch die banale Frage nach einer guten Pizza hat Folgen. Umsatz für eine Pizzeria und keinen Umsatz für eine andere. An der Hochschule Coburg wird über die Verantwortung von KI geforscht, bald in einem eigenen Gebäude am ehemaligen Schlachthof.
Auf rund 760 Quadratmetern entsteht das Center of Responsible Artificial Intelligence (Crai). Damit der Bau schon im kommenden Jahr fertig ist, haben Stadt und CEB alte Mauern und ein Nebengebäude abgerissen sowie den Kanal neu verlegt. Das Crai wird über die Hightech Agenda Plus des Freistaats Bayern finanziert.