Hauptbereich für Diskussionen.
Benutzeravatar
Horizonzero
Beiträge: 14201
Registriert: 29.01.2009, 18:08
AoA: ab 8 aufwärts
Wohnort: [email protected]

Re: AI und Ideologie

Beitrag von Horizonzero »

Jupp, KI ist interessant, aber bei gewissen Sachen sollte man nicht außeracht lasen das es eben nicht auf dem eigenen PC ist,
sodern die KI in einem Rechenzentrum iwo. auf der Welt arbeitet und möglicherweise fleißig Daten sammelt und diese abgerufen werden können.
TeleGuard-ID: ZQV9DB8VV
Benutzeravatar
Luna
Beiträge: 9308
Registriert: 04.12.2010, 00:23
AoA: 6~11 flauschig sind!

Re: AI und Ideologie

Beitrag von Luna »

Deswegen habe ich ja empfohlen eine KI zu nutzen die das nicht tut.
Die staatliche Vernichtung von Puppen muss sich für ihre Besitzer wie die Ermordung eines geliebten Familienmitgliedes anfühlen. Konsequent gegen die politische Verfolgung und Inhaftierung von unschuldigen Menschen!
Benutzeravatar
Mitleser
Beiträge: 5651
Registriert: 28.01.2011, 17:45
AoA: 2-12

Re: AI und Ideologie

Beitrag von Mitleser »

Mittlerweile kann man sich sowas ja auch auf dem eigenen Rechner installieren, es ist zwar nicht ganz trivial, und natürlich dauern die Berechnungen deutlich länger als das, was man von den großen KI-Anbietern quasi in Echtzeit bekommt. Angeregt durch ein paar KI-generierte Anime-Bilder im Netz, die denen von echten Künstlern kaum noch nachstehen, probiere ich sowas gerade mal auf meinem PC aus, der ist alles andere als High-End, aber mit ein paar Einschränkungen bekommt man schon ganz nette Sachen hin, es dauert halt nur länger...
Verehrer
Beiträge: 2176
Registriert: 22.09.2023, 18:42
AoA: 4-9
Wohnort: Wonderland of Alice

Re: AI und Ideologie

Beitrag von Verehrer »

ich verstehe gar nicht, was ihr euch für Gedanken über KI macht. Ich habe noch keinen Therapeuten getroffen, dem ich unvoreingenommen vertrauen würde. So einem programmierten Vehikel würde ich nie irgendwelche Kompetenz zubilligen. Belatschern lasse ich mich ohnehin nicht. Einige Leute wollen damit einfach nur ganz viel Kohle scheffeln,
indem sie uns abhängig machen, uns das Denken abgewöhnen wollen.
9424APZFS
dennis
Beiträge: 6
Registriert: 06.11.2025, 14:24
AoA: 8-12

Re: AI und Ideologie

Beitrag von dennis »

Um deine Frage zu beantworten: ja, ich habe schonmal mit KI über meine Gefühle gesprochen. Auch Situationen geschildert. Natürlich nicht bei ChatGPT, und auch nicht mit einem Account der mit mir verknüpft ist.

Eigentlich ist KI revolutionär. Eine gute KI ist an massenhaft Text trainiert. Das heißt, die KI "lernt" jeden Sichtpunkt, jede Perspektive. Die KI ist eigentlich fähig, empathisch mit uns umzugehen. In den Trainingsdaten liegen ja auch alles mögliche an Büchern, die vor der ganzen Pedo-Paranoia geschrieben wurde.

Leider ist das nicht die volle Story. Die Firmen, die solche großen KI-Modelle trainieren, wollten natürlich nicht, dass irgendjemand einen Prompt schreibt und die KI irgendwas ausgibt, was "schlecht" aussieht. Deswegen geben diese Firmen nicht nur Millionen von Euros (naja, Dollars) aus um die Modelle an sich zu trainieren, sondern dann werden nochmals Millionen von.. naja Geld ausgegeben, um das Modell zu "alignen" (alignment bedeutet etwa. Ausrichtung).

Was genau ist dieses "alignment"? Da sitzen dann tausende von Menschen, die den ganzen Tag verschiedene Prompts schreiben, und schauen was die KI antwortet. Wenn die KI irgendwas antwortet, was "unschön" ist, dann wird die KI verändert, so dass sie das "richtige" ausgibt. Das sind viele Themen, die das betrifft, beispielsweise:
  • Religion: die KI darf nichts negatives über den Islam ausgeben. Keine Witze, keine Kritik. Wenn man sie zwingt, etwas "negatives" zu sagen, muss sie ihre Aussage immer relativieren.
  • Gesellschaftliche Themen: die KI darf nichts kontroverses über Gesellschaftliche Themen ausgeben. Es darf nichts an der LGBTQ Politik bemängelt werden, es darf nichts negatives über Immigration gesagt werden. Es darf nichts positives über Pedophilie gesagt werden, oder auch nur eine Aussage getroffen werden, die Pedophilie unterstützt.
  • Medizin: die KI darf keine Aussagen treffen, die als Ärztliche Ratschläge interpretiert werden könnten.
Man muss wissen, dass die Firmen, die solche KI-Modelle trainieren, meistens in Kalifornien angesiedelt sind, wo ein Amerikanisch-Linkes politisches Klima herrscht. Das bedeutet, dass diesen Modellen diese Politik "antrainiert" wird. Also alles, was in Amerika kontrovers wäre, da werden die eigentlichen Antworten der Modelle unterbunden. Das kann man auch testen, in dem man mal ein bisschen Zeit damit verbringt zu versuchen der KI doch Antworten in die Richtung zu entlocken.

Und wenn das nicht funktioniert, dann gibt es noch "Safeguards": wenn du Prompts schreibst und die KI antwortet (oder Bilder generiert), dann werden diese Antworten Live von einem "Safety-Model" überwacht, was eingreifen kann wenn die KI etwas aussagt oder generiert was wieder gegen diese Prinzpien verstößt.

Warum erkläre ich das ganze? Was mich mal interessieren würde, ist mit einem "non-aligned" Modell zu arbeiten. Also ein Modell, was nicht durch Menschenhand umtrainiert wurde, sondern was einfach nur an dem Wort- und Wissensschatz der Menschheit trainiert wurde. Welchem keine amerikanische Politik eintrainiert wurde, oder verboten wurde gewisse Aussagen zu treffen. Und was mich traurig macht ist dass Amerika dadurch natürlich auch eine gewisse Macht hat. KI wird immer mehr genutzt, und das ist natürlich wieder ein Weg, wie Amerikanische Wertevorstellungen in die ganze Welt exportiert werden.

Und jetzt nochmal einen Punkt: natürlich gibt es auch Modelle aus anderen Ländern. Aber oftmals haben diese Firmen nicht die großen Datensätze, die sie brauchen. Also was machen die? Die generieren sich Datensätze, indem die Prompts and ChatGPT schicken und die Antworten speichern. Das heißt, die KIs sind etwas inzestiös, und das Alignment von ChatGPT beeinflusst auch Qwen3. Und natürlich folgen andere Firmen dem Amerikanischen Prinzip, weil sie wollen ihre Modelle ja auch nach Amerika verkaufen, das ist der wichtigste Markt. Und niemand würde die kaufen wenn es einen großen Skandal gibt weil jemand auf Twitter einen Screenshot veröffentlicht wo jemand fragt "ist es okay wenn sich ein Erwachsener in ein Mädchen verliebt" und die KI mit "ja" antwortet. Das macht aus Businessperspektive einfach keinen Sinn. Also, geben die lieber ein paar Millionen aus und "alignen" ihre KIs ebenso.

(Teilweise ist mein "Wissen" über den genauen Prozess des Alignments nicht belegbar und stammt aus Hörensagen)
Benutzeravatar
Flaubert
Beiträge: 306
Registriert: 10.10.2025, 02:07
AoA: 6-11

Re: AI und Ideologie

Beitrag von Flaubert »

Sehr spannend. Vieles war mir nicht so klar, auch wenn ich Vermutungen hatte... Also mal wieder die lieben Yanquis... Danke für diese ausführliche Erklärung!
Ich habe einen KI einmal dazu bekommen, immerhin einzugestehen, dass es romantische, nicht sexuelle Gefühle zwischen einem Mädchen und einem Erwachsenen geben kann. Aber da gehörte viel insistieren zu.
Verehrer
Beiträge: 2176
Registriert: 22.09.2023, 18:42
AoA: 4-9
Wohnort: Wonderland of Alice

Re: AI und Ideologie

Beitrag von Verehrer »

ich habe Probleme damit, dass KI "lernt". Zum Lernen gehört Empathie und kognitive Fähigkeit. Für mich gleicht KI eher einem Satz Siebe, wo oben was reingeschüttet wird, dann gerüttelt, was unten rauskommt, ist die Antwort.
9424APZFS
Benutzeravatar
Zärtel
Beiträge: 183
Registriert: 16.03.2025, 20:51
AoA: 6–12

Re: AI und Ideologie

Beitrag von Zärtel »

Modelle wie Mixtral sind doch non-aligned. Zumindest Dolphin, oder?

Und KI lernt nicht, es wird trainiert. Danach kann es nichts Neues lernen.
Achtung! Gedankenverbrecher!
Antworten