Bochum: Künstliche Intelligenz

Künstliche Intelligenz kommt auch bei uns in Bochum schon in vielen Bereichen vor. Das sagen das Bochumer IT-Sicherheitsunternehmen G Data und Experten der Ruhr-Universität Bochum.

© ra2 studio - Fotolia

Bochumer Institutionen zu KI

Forscher benutzen KI zum Beispiel um Daten zu analysieren und Unternehmen programmieren schon länger KI in technischen Geräten. Die würden die Menschen jetzt schon ganz selbstverständlich benutzen. Das sagt Dr. Peter Salden. Er leitet ein Projekt an der RUB und forscht zu KI in Hochschulen. Die Uni ist dabei die Pilothochschule in NRW. Das Ministerium für Kultur und Wissenschaft in NRW fördert das KI-Projekt in Bochum. Bei G Data arbeitet KI vor allem mit um Schadsoftware zu analysieren.

Künstliche Intelligenz ermöglicht in vielen Bereichen ganz neue Dinge. Aber immer, wenn etwas positives Potenzial hat, können Menschen das auch missbrauchen, warnt die G Data. Das sollte man natürlich so weit minimieren, wie möglich. Das werde allerdings keine einfache Aufgabe.

RUB Projektleiter Peter Salden ist wichtig, dass Regeln KI nicht komplett verbieten - sondern nur klar machen, wie Menschen sie einsetzen dürfen. Nur so könne man das positive Potenzial der Technik ausschöpfen - und niemanden zu schaden. Salden ist sich sicher: Wenn es gute Regeln gibt, dann wird KI uns eher nutzen als schaden. Das Potenzial von KI sei natürlich groß, sagt auch Tim Berghoff von G Data. In der Medizin kann KI zum Beispiel bei Diagnosen helfen. Wie gut KI helfen kann liegt aber auch daran, wie gut sie gemacht ist. Wenn man Müll rein tue, komme auch nur Müll raus. Man muss im Moment noch herausfinden, wie man KI davon abhalten kann, schlechte Dinge zu unterstützen.

Dabei geht es aber vor allem um KI, die zum Beispiel Texte oder Bilder erstellen kann - wie Chat GPT. Das nennt man generative KI. Dabei komme KI in ganz vielen Bereichen vor, sagt Salden.

Die Erfolgsgeschichte von KI ist nur dadurch zu erklären, dass diese Technologie an vielen Stellen Dinge ermöglicht, die ohne KI nicht so leicht umzusetzen wären.

Bei KI, die Texte schreibt oder Bilder produziert, braucht es Gesetze, die Urheberrechte festlegen. Auch für prüfungsrechtliche Fragen braucht man Guidelines aus Sicht der Hochschulen, sagt Salden. Bei anderen KIs kann es aber um Probleme beim Datenschutz gehen. Das müsse auch in der Diskussion um ChatGPT geklärt werden, sagt Salden.


KI in der Industrie

KI beschäftigt die Politik und die Industrie schon länger. Beide wollen, dass es dafür mehr Regeln gibt. Erst diese Woche hat der Chef von Google gefordert, AI „nicht ohne Aufsicht“ einzusetzen. Aber schon 2020 hat sich die europäische Kommission mit dem Thema beschäftigt.

An den Hochschulen werde nicht pauschal funktionieren. Es werde da wohl eher darum gehen, dass klar ist, wie und ob Studierenden KI bei einer wissenschaftlichen Arbeit benutzt haben. Das heißt aber nicht, dass Studierende dann jeden Satz der KI im Text markieren müssten.

So steht die Bundesregierung zur KI

Die Bundesregierung will konkrete Regeln, wenn es um künstliche Intelligenz geht. Bundesinnenministerin Faeser will vor allem einen Rahmen für Probleme bei Grundrechten und Datenschutz. Die Diskussion ist nicht neu. Das sagen das Bochumer IT-Sicherheitsunternehmen G Data und die Ruhr-Universität Bochum. Dr. Peter Salden, der Projektleiter, sagt, sie halten KI für eine Schlüsseltechnologie. Deswegen finde man das auch aus Sicht des Projektes gut, dass gerade so viel über KI diskutiert wird. Das sieht auch Tim Berghoff von G Data so. Bis alle Fragen da geklärt sein, werde es wohl einige Zeit dauern. KI werde aber in den nächsten Jahren eine immer größere Rolle spielen, sagen die Experten von G Data und der RUB.

Bei der Diskussion geht es auch darum, was Künstliche Intelligenz darf und was nicht. Es ist wichtig, dass es klare Regeln gibt, wann Menschen und Unternehmen KI einsetzen dürfen, sagt Salden. Es muss zum Beispiel geklärt werden, wer für die Ergebnisse von KI verantwortlich ist - und wie transparent Forscher oder Unternehmen sein müssen, wenn es darum geht, wie ihre KI funktioniert. Welche neuen Regeln wir in Deutschland brauchen, hängt aber davon ab, um welche Art von KI es geht und in welchem Kontext, erklärt Salden. Das sagt auch Tim Berghoff von G Data. Trotzdem müsse man mit KI vorsichtig sein, sagt Berghoff. Falsche Bilder oder Töne könnten zum Beispiel dem Journalismus schaden. KI sollte nicht unbedingt alles lernen können oder dürfen.

Weitere Meldungen

skyline