KI im allgemeinen und generative KI im Besonderen ist Gegenstand zunehmender Diskussionen und wird als universelles Problemlösungsinstrument betrachtet (Wannemacher & Bodmann, 2021). Gleichzeitig stellt das Potential generativer KI eine neue Quelle möglicher Bedrohungen dar, so auch in der universitären Lehre, in der sich sowohl bei der Wissensvermittlung als auch Erfolgskontrolle neue Möglichkeiten ergeben. In diesem Kontext wird allerdings oft vernachlässigt die tatsächlichen Fähigkeiten, aber auch die Problemfelder und Zuverlässigkeit (generativer) KI angemessen zu evaluieren.
Das Hauptziel dieses Beitrages besteht darin, Lehrende und die Studierende auf die Anwendung von KI vorzubereiten und sie für potenzielle Schwierigkeiten und Schwachstellen zu sensibilisieren. Ein zentraler Fokus liegt dabei auf der Zuverlässigkeit, Schwächen und Manipulationsanfälligkeit. Untersuchungen haben beschrieben, dass z.B. Chat GPT (Version 3.5) erhebliche Schwächen in Bereichen wie der Logik (Liu et al., 2023), Physik (Singh et al., 2023) und Mathematik (Frieder et al., 2023) hat. Dies wurde auch in einem Projekt an der Universität Koblenz gezeigt, dessen Ergebnisse hier vorgestellt werden sollen. Trotz einer hohen Fehlerrate hatten die gelieferten Ergebnisse allerdings eine relative hohe Plausibilität. Es wurde auch berichtet, dass die Genauigkeit und Effizienz von Chat GPT 3.5 und 4.0 über einen Zeitraum von drei Monaten abnahmen (Chen et al., 2023). Obwohl davon ausgegangen werden kann, dass zukünftige Versionen Verbesserungen aufweisen werden, bleiben wohl weiterhin Schwächen bestehen oder es können neue auftreten (Derner & Batistič, 2023).
Die Erkenntnisse dieses Beitrags sollen zur Diskussion bzgl. der Entwicklung und Anwendung von KI konstruktiv beitragen, die Technologie kritisch reflektieren und einen fundierten Umgang mit ihr in Bildungseinrichtungen für Lehrende und Lernende fördern
Literaturverzeichnis
Chen, L., Zaharia, M., & Zou, J. (2023). How is ChatGPT’s behavior changing over time? http://arxiv.org/abs/2307.09009
Derner, E., & Batistič, K. (2023). Beyond the Safeguards: Exploring the Security Risks of ChatGPT. http://arxiv.org/abs/2305.08005
Frieder, S., Pinchetti, L., Chevalier, A., Griffiths, R.-R., Salvatori, T., Lukasiewicz, T., Petersen, P. C., & Berner, J. (2023). Mathematical Capabilities of ChatGPT. http://arxiv.org/abs/2301.13867
Liu, H., Ning, R., Teng, Z., Liu, J., Zhou, Q., & Zhang, Y. (2023). Evaluating the Logical Reasoning Ability of ChatGPT and GPT-4. http://arxiv.org/abs/2304.03439
Singh, S. K., Kumar, S., & Mehra, P. S. (2023). Chat GPT & Google Bard AI: A Review. 2023 International Conference on IoT, Communication and Automation Technology, ICICAT 2023. https://doi.org/10.1109/ICICAT57735.2023.10263706
Wannemacher, K., & Bodmann, L. (2021). Künstliche Intelligenz an den Hochschulen Potenziale und Herausforderungen in Forschung, Studium und Lehre sowie Curriculumentwicklung (59).