Das Projekt "Luzination".
Rahmenprojekt: CoLeTo
Nachhaltigkeitsziel: SDG 4
Mit diesem Projekt wird für gefährliche Fehler bei Künstlicher Intelligenz (KI) das Wort "Luzination" vorgeschlagen .
In diesem Projekt soll Luzination zusammengestellt, untersucht und bearbeitet werden.
Für gute Software und gegen gefährliche Fehler sollen über diese Projekt die Ansätze, Lösungen und Möglichkeiten der Verhinderung, Vermeidung und Verminderung von Luzination bei KI, kombiniert mit weiteren Methoden und wirksamen Instrumenten der Prävention von Luzination bei der Bereitstellung von KI zur Nutzung bearbeitet, vorgestellt und erörtert werden.
Der Vorschlag für das Wort "Luzination" leitet sich von Konfabulation und Halluzination ab, wobei es sich jedoch um einzeutig Phänomene menscherlicher Gesundheit handlet. Für Technik bedarf es eigener Begriffe.
Beispiele
Kuak Skyride: "Der vermeintliche TV-Beitrag über den „Kuak Skyride“ war eine komplett KI-generierte Fälschung.“ (Petereit 05.10.2025).
Heiliger Canyon von Humantay: „In Peru warnte der lokale Tourguide Miguel Angel Gongora Meza zwei Tourist:innen, die auf dem Weg zu einem „Heiligen Canyon von Humantay“ waren. Diesen Ort hatte ihnen eine KI empfohlen, doch er ist eine reine Fiktion, eine Kombination aus existierenden Namen und frei erfundenen Beschreibungen.“ (Petereit 05.10.2025).
Betriebszeiten von Seilbahn: „Ein anderes Paar soll laut dem Bericht auf einem Berg in Japan festgesessen haben, weil ChatGPT falsche Betriebszeiten für die letzte Seilbahn ins Tal angegeben hatte.“ (Petereit 05.10.2025).
Deepfake-Betrug: „Die Technologie hinter den gefälschten Videos ist dieselbe, die für Deepfake-Betrug genutzt wird, dessen Fälle in den vergangenen Jahren dramatisch zugenommen haben. Die Grenzen zwischen authentischen Empfehlungen und gezielter Täuschung verschwimmen.“ (Petereit 05.10.2025).
Wohnungsmiete Interessenten Bewertung: "SafeRent darf laut einem Vergleich vom 20. November 2024 fünf Jahre lang keine Bewertungssysteme oder Empfehlungen für Wohngutschein-Nutzer einsetzen." (Fincken 31.12.2024).
Weitere Informationen:
- Tristan Fincken (31.12.2024): Die 5 größten KI Fails 2024. Kommentar. URL: https://www.computerwoche.de/article/3627408/die-5-grosten-ki-fails-2024.html
- Dieter Petereit (05.10.2025): Gefährliche Halluzinationen: KI schickt Touristen an Orte, die es nicht gibt. URL: https://t3n.de/news/ki-reiseplanung-gefahr-halluzinationen-1710656/?. Darin: „Ein malerischer Canyon in Peru, eine Seilbahn in Malaysia. Tausende sehen die Bilder online. Doch am Zielort erwartet Reisende oft nur eine gefährliche Enttäuschung. Was steckt dahinter?“ (s.o).
- Wikimedia Foundation Inc. (Wikipedia) (13. 09.2025): Konfabulation . URL: https://de.wikipedia.org/wiki/Konfabulation
- Wikimedia Foundation Inc. (Wikipedia) (05.10.2025): Halluzination (Künstliche Intelligenz). URL: https://de.wikipedia.org/wiki/Halluzination_(K%C3%BCnstliche_Intelligenz)
Quervernetzt:
- SDG 04 CoLeTo - Übersicht, siehe URL: https://www.sai-lab.de/index.php/de/projekte/28-sdg-04-coleto/1066
- SDG 04 Commons Learning Tools (CoLeTo) - Rahmenprojekt, siehe URL: https://www.sai-lab.de/index.php/de/projekte/28-sdg-04-coleto/2331
- SDG 04 CoLeTo - Beschreibung, siehe URL: https://www.sai-lab.de/index.php/de/projekte/28-sdg-04-coleto/2332
Anker:
- CoLeTo 036: Luzination, siehe URL: https://www.sai-lab.de/index.php/de/projekte/28-sdg-04-coleto/3912