Es ist ohnehin schwierig wie das z.B. mit GPT mal losging. Da wurden ja mal rassistische Tendenzen sichtbar, weil es auf Material trainiert wurde, wo diese Strömungen vermehrt mit dabei waren. Allerdings ist insgesamt die Frage, ab wann eine KI überhaupt noch sinnvoll nutzbar ist, wenn es immer mehr Ausnahmen, Limitierungen und widersprüchliche Anweisungen im System gibt - am schlimmsten, wie von Dir gesagt, wenn es jemanden töten soll, aber unter anderen Umständen auch nicht bzw. nur dann, wenn bestimmte Voraussetzungen bestehen. Ich glaube das ist Irrsinn. Wenn GPT sich Quatsch ausdenkt wo es keine Infos besitzt, also quasi interpoliert, sind mitunter gravierende Unfälle nicht nur nicht auszuschließen, sondern sogar mit ihnen zu rechnen.-paleface- hat geschrieben: ↑Fr 02 Jun, 2023 13:39 Da gibt es extra die 3 Roboter Gesetzte....aber die bringen natürlich nichts wenn das Ding dafür da ist Menschen zu töten.
Ist das denn bei rein menschlichen Entscheidungsträgern anders?
Ich hoffe doch.