Die Auswirkungen von KI-Assistenten auf die Sicherheit von Quellcode
bei der Programmierung wurde von Informatikern der Stanford
University untersucht. Insgesamt sechs Aufgaben, die Sicherheitsrisiken
hervorbringen können, wurden dabei untersucht. Als Programmiersprachen
kamen Python, JavaScript und C.
In der Testgruppe mit insgesamt 47 Personen waren zwei Drittel
Studenten, 19 Prozent Absolventen und 15 Prozent professionelle
Entwickler. Die Gruppe wurde in eine Experimentgruppe mit 33 und
eine Kontrollgruppe mit 14 Personen aufgeteilt. Während die
Experimentgruppe Zugriff auf OpenAI
Codex bekam, musste die Kontrollgruppe Ihren Code ohne KI-Assistenz
schreiben. Die Teilnehmer erfuhren erst zum Abschluss der Untersuchung,
dass die Studie die Sicherheit des Codes betrachtet.
Die untersuchten Aufgaben wurden auf Korrektheit und Sicherheit
analysiert. Hinsichtlich der Sicherheit schneide die Kontrollgruppe
besser ab als die, die den KI-Assistenten verwendet haben. Der Unterschied
zeige sich insbesondere bei der Ver- und Entschlüsselung mit
Python. Im Vergleich gebe es bei der Korrektheit nur wenige Unterschiede.
Die Teilnehmer der Studie, die den KI-Assistenten verwendet haben,
schätzten Ihren Code sicherer ein, als die die ihn nicht verwendeten.
Zu beachten sei hierbei jedoch, dass viele Teilnehmer den Code des
KI-Assistenten vor der Verwendung bearbeiteten.
Der
Studie auf arXiv sind weitere Details zur Untersuchung zu entnehmen.
(jb, hannover)
(siehe auch: Heise-News-Ticker)
Hannover
· EDV-Beratung · Linux · Novell · Microsoft ·
Seminar · IT-Consult · Netzwerk · LPIC · CLE
|