[Sammelthread] ChatGPT und andere KI - Anwendungsbeispiele und Diskussion

@Ickewars, Ich kann dir nicht sagen wie Software es erkennt da ich deren Methoden nicht kenne.

Allerdings kann ich dir sagen (aus eigener Erfahrung – wie oben geschrieben) dass es zumindest in meinem Fall meistens gut funktioniert hat. Ich nehme also einen längeren Absatz der von mir geschrieben wurde. Die Internetseite (ich weiß nicht mehr welche es war, aber es gibt zig von denen) hat meine Texte meistens im Bereich 0% (0% dass es eine AI war) bis max 15-20% AI-like bewertet. Das waren wie gesagt polierte Texte an denen ich lange geschrieben und geschliffen habe – eben für ne Publikation. Also nicht so eine Art von Texten wie ich sie hier im Forum mal schnell runtertippe bzw. "hinschmiere".

Wenn ich dann den gleichen Absatz via ChatGPT umgeschrieben habe ging der Prozentwert häufig auf ca. 30 bis 90% hoch! Und was ich merke ist dass die umgeschriebenen Texte von ChatGPT alle sehr "monoton" klingen. D.h. selbst ich merke subjektiv dass die Texte irgendwie auffallen. Alles auf Englisch natürlich. Eventuell wirkt es auf Deutsch auch anders.

Edit: man muss dazu sagen: wir vergleichen hier etwas Äpfel mit Birnen. Warum?

Einmal erstellt chatgpt einen Text von Grund auf neu. Und einmal muss es eine Vorgabe verändern! Das ist also nicht die gleiche Aufgabe. Und es kann also durchaus das Resultat hinsichtlich Erkennbarkeit (bestimmter Muster etc.) beeinflussen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, gestern konnte ich mich endlich bei Sora einloggen. Is mal ganz nett, aber ich habe dafür keinen Use Case. Die typischen KI-Fehler gibt es bei Sora auch.

Die neuen Canvas Funktionen werde ich heute testen.

Mit O1-Preview habe ich vor ein paar Wochen ein Programm zur Erfassung und Verwaltung von Elektrogeräten zur DGUV V3 Prüfung erstellt. Da werde ich das neue O1 Modell auch nochmal einen Blick darauf werfen lassen. Das Programm wollte ich auch noch erweitern, um Prüfprotokolle als PDF zu generieren. Gerade hier begeistert mich ChatGPT. Ich habe nur sehr rudimentäre Programmier-Kenntnisse. Ich kann Teilabschnitte von Codes unter Umständen noch verstehen, das war es dann aber auch. Mit ChatGPT habe ich mir schon einige kleine Tools gebastelt, mit O1-Preview gingen tatsächlich auch schon etwas komplexere Dinge.
 
Zuletzt bearbeitet:
Toller Thread hier, warum hab' ich den nicht früher gefunden? :love:

Heute Morgen beim Rewe fiel mir ein Werbeplakat wegen eines Rechtschreibfehlers ins Auge (guckst du hier) und ich habe ChatGPT gebeten, das "ß" zu ersetzen durch "ss". Upload des Bilds funktionierte leider trotz Login nicht, deshalb blieb es bei prompts.

Erdnuss mit Doppel-s konnte die KI direkt umsetzen und das wurde auch beibehalten, dafür natürlich andere Schreibfehler hinein gebastelt. :d Die Schriftfarben grün und weiß kamen etwas verzögert zurück und die finde ich gar nicht mal so schlecht. Dass sich die als Beispiel für die Form herangezogene Banane rächen würde, hätte ich wissen müssen, aber das "wie" haut mich fast vom Stuhl. :rofl:

ChatGPT Lorenz Erdnuss-Locken.jpg
 
Ich lasse mir von lokalen LLMs lustige Stories erzählen, die man in Reallife so gut wie gar nicht bekommt. Wie Zeitreisen, Time-Loops und Retrocausality. Manche LLMs flippen regelrecht aus und wollen dir unendlich danken, wie geil sie es finden solche Stories zu schreiben.
 
Lebst Du eigentlich immer noch in Deinem Bett-Iglu, oder hat sich Dein Leben wieder etwas auf den Rest Deines (vielleicht sogar wieder beheizten) Hauses ausgeweitet?
 
Zuletzt bearbeitet:
Wir haben unsere letzte Besprechung – ca. 1,5 h – aufgezeichnet und mit dem aktuellen OpenAI Whisper V3 Modell transkribiert. Das Ganze dann mit dem o1 Modell ausgewertet.


Das ist schon erschreckend gut. Es wurde alles Relevante erkannt. Sogar sarkastische und ironische Bemerkungen werden von der KI erkannt, obwohl eigentlich der Kontext fehlt.
 
Zuletzt bearbeitet:
Heute kam der Ritterschlag für meine politisch-angehauchte KI-Kunst in Fooocus. Temporärer Bann von Telegram-Moderator. Ich poste mal hin und wieder bissigen Kommentar mit einem passenden KI-Bild. Irgendein User mit scheinbar sehr kurzen Draht zum Dubai-Office in Telegram-Zentrale hat es geschafft in Minuten mich vom Telegram zu bannen. Ich sag euch Fooocus ist Macht.
1000017935.jpg
 
Zuletzt bearbeitet:
Mein Test mit dem aktuellen Server ein lokales LLM mit Ollama zu betreiben kann ich als gescheitert betrachten, zumindest ohne Grafikkarte. Wollte es einfach mal ausprobieren, der Server ist ohnehin nicht dafür gedacht gewesen.

Wenn ich schaue was Deepseek für sein Modell V3 per API nimmt, werden die Preise ohnehin weiter sinken. Das Modell ist nur keine Alternative.

Dann muss ich Cursor und Cline eben mit einer Azure OpenAI Instanz verbinden oder zumindest für Claude Kredits aufladen.
Bin aber immer noch fasziniert, wieviel Coding beide einem abnehmen können, da sie die Codebase als Context nehmen und komplette Lösungen erstellen (nachdem man mehrmals iteriert hat sogar ganz passabel).
Sind noch etwas anderes gelagert als GitHub CoPilot, der übrigens jetzt kostenlos nutzbar ist (eingeschränkt).

Der nächste Schritt ist dann mit Make, n8n und PowerAutomate zu schauen was am besten passt bzgl. Workflow Automation. n8n ist schon attraktiv, weil OnPrem möglich und mehr individualisierbar als Make. PowerAutomate kommt nur in Frage wenn ich mich eher auf das Microsoft Ökosystem fokussiere.
Da bin ich mir aber noch unschlüssig, liebäugle auch meinen Laptop gegen MacBook zu tauschen und nur noch auf Linux bei den VMs zu setzen.

Bei Perplexity AI bin ich nun auch tiefer eingestiegen. ChatGPT generiert mir den prompt für die initiale Suche und Perplexity gibt einem dann nach der Suche richtig gute Vorschläge für die Vertiefung der Suche.
Selbst hätte ich wahrscheinlich Stunden an dem zusammensuchen gesessen.

Alles in allem eine gute Entwicklung bzgl. KI und es wird mir viel abnehmen in Zukunft.

Den Hype um die Agents sehe ich im Moment noch gelassen. Erstens bezeichnen alle nun alles als Agents (dabei ist es oftmals eher ein Workflow, weil fest definierter Ablauf).
Zweitens fehlen dadurch oftmals noch die wirklichen Use-Cases. Man muss es aber auf dem Schirm haben.
 
Ein Lifehack bei Image-Generierung. Insbesondere wenn man keine herausragende Englisch Kenntnisse hat bzw. keine Phantasie. Man kann einfach in LM Studio irgendein LLM fragen, wie es mit Prompting in Stable Diffusion funktioniert.
 
Gerade chatgpt gebeten, mir mal die Gesamtkosten für die Nachrüstung eines M Paketes bei einem G31 zusammen zustellen. Er listet die einzelnen Komponenten / Pakete korrekt auf, schafft es bei der Rechnung dann aber nicht, alle Kosten mit einzubeziehen. Ich weise ihn darauf hin, er sagt sorry und rechnet nochmal - wieder falsch.

Meine Güte :fresse:

Ich nutze es inzwischen nur als bessere Google Suche. Das dann allerdings recht erfolgreich. Da man hier so suchen kann wie man es auch fragen würde. Bei Google muss man halt Schlagworte nehmen und sich mehrere Quellen zusammen suchen.
 
Mein Test mit dem aktuellen Server ein lokales LLM mit Ollama zu betreiben kann ich als gescheitert betrachten, zumindest ohne Grafikkarte. Wollte es einfach mal ausprobieren, der Server ist ohnehin nicht dafür gedacht gewesen.

Wenn ich schaue was Deepseek für sein Modell V3 per API nimmt, werden die Preise ohnehin weiter sinken. Das Modell ist nur keine Alternative.

Dann muss ich Cursor und Cline eben mit einer Azure OpenAI Instanz verbinden oder zumindest für Claude Kredits aufladen.
Bin aber immer noch fasziniert, wieviel Coding beide einem abnehmen können, da sie die Codebase als Context nehmen und komplette Lösungen erstellen (nachdem man mehrmals iteriert hat sogar ganz passabel).
Sind noch etwas anderes gelagert als GitHub CoPilot, der übrigens jetzt kostenlos nutzbar ist (eingeschränkt).

Der nächste Schritt ist dann mit Make, n8n und PowerAutomate zu schauen was am besten passt bzgl. Workflow Automation. n8n ist schon attraktiv, weil OnPrem möglich und mehr individualisierbar als Make. PowerAutomate kommt nur in Frage wenn ich mich eher auf das Microsoft Ökosystem fokussiere.
Da bin ich mir aber noch unschlüssig, liebäugle auch meinen Laptop gegen MacBook zu tauschen und nur noch auf Linux bei den VMs zu setzen.

Bei Perplexity AI bin ich nun auch tiefer eingestiegen. ChatGPT generiert mir den prompt für die initiale Suche und Perplexity gibt einem dann nach der Suche richtig gute Vorschläge für die Vertiefung der Suche.
Selbst hätte ich wahrscheinlich Stunden an dem zusammensuchen gesessen.

Alles in allem eine gute Entwicklung bzgl. KI und es wird mir viel abnehmen in Zukunft.

Den Hype um die Agents sehe ich im Moment noch gelassen. Erstens bezeichnen alle nun alles als Agents (dabei ist es oftmals eher ein Workflow, weil fest definierter Ablauf).
Zweitens fehlen dadurch oftmals noch die wirklichen Use-Cases. Man muss es aber auf dem Schirm haben.

Ich mache gerade auch einiges mit Cursor, und für Menschen ohne programmier-Skills ist das schon toll. Ich habe mir einige Tools und Programme gebastelt, inkl. Einbindung der API zu OpenAI und Google Cloud Vision etc.

Mit Make.com laufen bei mir auch ein paar Automatisierungen. Z.B. werden bestimmte E-Mail-Postfächer automatisiert (Mails und Anhänge durch ChatGPT beurteilet und weiterverarbeitet), z.B Rechnungen und Lieferscheine erkannt, unbenannt und in entsprechende Ordner für den Datev Upload verschoben.

Und die Kosten für die API Nutzung haben sich schon auf unfassbare 0,22€ summiert.

Lokal lohnt sich einfach nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh