Also ich würde sagen die meisten trainierten Algorithmen sind blackboxen auch für IT-experten… Ich weiß wie ein transformer funktioniert, auch vor chatgpt und ich hätte trotzdem nicht gedacht dass es so gut funktioniert. Bzw ich kann aus dem Wissen fast keinen Vorteil ziehen bei der Interaktion mit chatgpt.
Das heißt natürlich nicht, dass es nicht wichtig wäre für die Bevölkerung ein gewisses Verständnis für IT zu haben. Denn die ist sicherlich größtenteils nicht gegeben
Sie sind in soweit Blackboxen, dass selbst die Hersteller nicht sagen können, warum sie so funktionieren.
Sie können weder sagen, warum eine bestimmte Entscheidung getroffen wurde, noch können sie sagen, warum ein bestimmtes Design funktioniert. Es ist gerade sehr viel mehr Kunst als Wissenschaft.
Als jemand der mit KI arbeitet: warum eine Entscheidung getroffen wurde ist meist schon nachvollziehbar. Wir können beispielsweise die pixel hervorheben die besonders stark zur Entscheidung beigetragen haben.
Das ist dann nur ein Teil des Problems, aber man ist nicht ganz blind wie du es suggerierst
Du kannst mathematisch nachvollziehen, was passiert. Aber das “Warum” dahinter eben nicht. Im Sinne von “warum werden gerade diese Pixel als Tiger erkannt?” Das sind verschiedene Arten von Warums.
Also ich würde sagen die meisten trainierten Algorithmen sind blackboxen auch für IT-experten… Ich weiß wie ein transformer funktioniert, auch vor chatgpt und ich hätte trotzdem nicht gedacht dass es so gut funktioniert. Bzw ich kann aus dem Wissen fast keinen Vorteil ziehen bei der Interaktion mit chatgpt.
Das heißt natürlich nicht, dass es nicht wichtig wäre für die Bevölkerung ein gewisses Verständnis für IT zu haben. Denn die ist sicherlich größtenteils nicht gegeben
Sie sind in soweit Blackboxen, dass selbst die Hersteller nicht sagen können, warum sie so funktionieren.
Sie können weder sagen, warum eine bestimmte Entscheidung getroffen wurde, noch können sie sagen, warum ein bestimmtes Design funktioniert. Es ist gerade sehr viel mehr Kunst als Wissenschaft.
Als jemand der mit KI arbeitet: warum eine Entscheidung getroffen wurde ist meist schon nachvollziehbar. Wir können beispielsweise die pixel hervorheben die besonders stark zur Entscheidung beigetragen haben.
Das ist dann nur ein Teil des Problems, aber man ist nicht ganz blind wie du es suggerierst
Du kannst mathematisch nachvollziehen, was passiert. Aber das “Warum” dahinter eben nicht. Im Sinne von “warum werden gerade diese Pixel als Tiger erkannt?” Das sind verschiedene Arten von Warums.