Um deine Frage zu beantworten: ja, ich habe schonmal mit KI über meine Gefühle gesprochen. Auch Situationen geschildert. Natürlich nicht bei ChatGPT, und auch nicht mit einem Account der mit mir verknüpft ist.
Eigentlich ist KI revolutionär. Eine gute KI ist an massenhaft Text trainiert. Das heißt, die KI "lernt" jeden Sichtpunkt, jede Perspektive. Die KI ist eigentlich fähig, empathisch mit uns umzugehen. In den Trainingsdaten liegen ja auch alles mögliche an Büchern, die vor der ganzen Pedo-Paranoia geschrieben wurde.
Leider ist das nicht die volle Story. Die Firmen, die solche großen KI-Modelle trainieren, wollten natürlich nicht, dass irgendjemand einen Prompt schreibt und die KI irgendwas ausgibt, was "schlecht" aussieht. Deswegen geben diese Firmen nicht nur Millionen von Euros (naja, Dollars) aus um die Modelle an sich zu trainieren, sondern dann werden nochmals Millionen von.. naja Geld ausgegeben, um das Modell zu "alignen" (alignment bedeutet etwa. Ausrichtung).
Was genau ist dieses "alignment"? Da sitzen dann tausende von Menschen, die den ganzen Tag verschiedene Prompts schreiben, und schauen was die KI antwortet. Wenn die KI irgendwas antwortet, was "unschön" ist, dann wird die KI verändert, so dass sie das "richtige" ausgibt. Das sind viele Themen, die das betrifft, beispielsweise:
- Religion: die KI darf nichts negatives über den Islam ausgeben. Keine Witze, keine Kritik. Wenn man sie zwingt, etwas "negatives" zu sagen, muss sie ihre Aussage immer relativieren.
- Gesellschaftliche Themen: die KI darf nichts kontroverses über Gesellschaftliche Themen ausgeben. Es darf nichts an der LGBTQ Politik bemängelt werden, es darf nichts negatives über Immigration gesagt werden. Es darf nichts positives über Pedophilie gesagt werden, oder auch nur eine Aussage getroffen werden, die Pedophilie unterstützt.
- Medizin: die KI darf keine Aussagen treffen, die als Ärztliche Ratschläge interpretiert werden könnten.
Man muss wissen, dass die Firmen, die solche KI-Modelle trainieren, meistens in Kalifornien angesiedelt sind, wo ein Amerikanisch-Linkes politisches Klima herrscht. Das bedeutet, dass diesen Modellen diese Politik "antrainiert" wird. Also alles, was in Amerika kontrovers wäre, da werden die eigentlichen Antworten der Modelle unterbunden. Das kann man auch testen, in dem man mal ein bisschen Zeit damit verbringt zu versuchen der KI doch Antworten in die Richtung zu entlocken.
Und wenn das nicht funktioniert, dann gibt es noch "Safeguards": wenn du Prompts schreibst und die KI antwortet (oder Bilder generiert), dann werden diese Antworten Live von einem "Safety-Model" überwacht, was eingreifen kann wenn die KI etwas aussagt oder generiert was wieder gegen diese Prinzpien verstößt.
Warum erkläre ich das ganze? Was mich mal interessieren würde, ist mit einem "non-aligned" Modell zu arbeiten. Also ein Modell, was nicht durch Menschenhand umtrainiert wurde, sondern was einfach nur an dem Wort- und Wissensschatz der Menschheit trainiert wurde. Welchem keine amerikanische Politik eintrainiert wurde, oder verboten wurde gewisse Aussagen zu treffen. Und was mich traurig macht ist dass Amerika dadurch natürlich auch eine gewisse Macht hat. KI wird immer mehr genutzt, und das ist natürlich wieder ein Weg, wie Amerikanische Wertevorstellungen in die ganze Welt exportiert werden.
Und jetzt nochmal einen Punkt: natürlich gibt es auch Modelle aus anderen Ländern. Aber oftmals haben diese Firmen nicht die großen Datensätze, die sie brauchen. Also was machen die? Die generieren sich Datensätze, indem die Prompts and ChatGPT schicken und die Antworten speichern. Das heißt, die KIs sind etwas inzestiös, und das Alignment von ChatGPT beeinflusst auch Qwen3. Und natürlich folgen andere Firmen dem Amerikanischen Prinzip, weil sie wollen ihre Modelle ja auch nach Amerika verkaufen, das ist der wichtigste Markt. Und niemand würde die kaufen wenn es einen großen Skandal gibt weil jemand auf Twitter einen Screenshot veröffentlicht wo jemand fragt "ist es okay wenn sich ein Erwachsener in ein Mädchen verliebt" und die KI mit "ja" antwortet. Das macht aus Businessperspektive einfach keinen Sinn. Also, geben die lieber ein paar Millionen aus und "alignen" ihre KIs ebenso.
(Teilweise ist mein "Wissen" über den genauen Prozess des Alignments nicht belegbar und stammt aus Hörensagen)