Beispiele von ChatGPT-generierten Posts:
https://web.archive.org/web/20230612080823/https://i.imgur.com/Aw8JUga.png
https://web.archive.org/web/20230612080827/https://i.imgur.com/0seHYei.png
https://web.archive.org/web/20230612080828/https://i.imgur.com/Q8Pl2Ms.png
https://web.archive.org/web/20230612080830/https://i.imgur.com/IRAug6a.png
https://web.archive.org/web/20230612080832/https://i.imgur.com/N88AxJx.png
https://web.archive.org/web/20230612080858/https://i.imgur.com/Ar8P95B.png
https://web.archive.org/web/20230612080526/https://i.imgur.com/4e9jO7P.jpg
Crossgeposted von: https://lemmy.world/post/1044141
Apologies if this is a repost. They’re scared lol.
https://www.teddit.net/r/Save3rdPartyApps/comments/14q12g7/subreddits_are_starting_to_see_spam_from/
Nach erneutem Nachdenken glaube ich dass man das billiger lösen kann indem man verschiedene Kommentare in einem API request zusammenfasst und dann GPT anweist die Ziel-Kommentare herauszufiltern. Dann kann man das an eine andere Komponente weiterleiten und die entsprechenden Antworten generieren lassen. Es stimmt also, dass so etwas konzeptionell sicher einfach zu erstellen ist (ich bin ja schließlich auch darauf gekommen wie man so etwas baut), aber so ein Unterfangen ist sicher nicht an einem Nachmittag umgesetzt.
Die OpenAI Kosten werden pro Token (entspricht in etwa einigen Buchstaben) berechnet. Für längere input Texte zahlt man also mehr.