Markus Beckedahl von netzpolitik.org über das Training Künstlicher Intelligenz | KI-nterview
Immer mehr Entscheidungen trifft nicht der Mensch, sondern KI-Software. Nicht selten ist sie dabei auch rassistisch und diskriminierend. Wie dem begegnet werden kann, darüber sprechen wir in … Minuten.
In Kenia mussten kürzlich Dutzende unterbezahlte Arbeiter*innen Texte lesen, die Gewalt verherrlichen, rassistisch oder aus anderen Gründen verstörend sind. Der Grund: Im Auftrag von ChatGPT sollten sie die Inhalte beurteilen -moralisch richtig, moralisch falsch, legal oder illegal - um die KI zu trainieren, damit diese bessere Texte schreiben kann.
Wieso es überhaupt dazu kommt, und was dagegen unternommen werden sollte, weiß Markus Beckedahl von netzpolitik.org. Wir haben mit ihm darüber gesprochen.