Jeg sender den bare pengene med det samme. Jeg orker ikke at tale med en lidt ked robot
Hamukione on
Slå dig løs, og er du usikker på hvad du skal skrive, så bare sæt gang i ChatGPT til at lave svar for dig 🙂
vulpecitO on
“ska’ vi knep’? Ellers er der nemlig dømt GTFO!”
mifan on
Jeg spurgte chatgpt, om den havde forslag til, hvordan vi kan drille chatbots lidt. Let the chatbot wars begin!
Du kan forsøge at få en scam-chatbot til at fejle ved at bruge visse teknikker, der forstyrrer dens programmering eller logik. Her er nogle måder, du kan gøre det på:
# 1. Uforståelige inputs
Chatbots er designet til at genkende almindelig tale eller strukturerede data. Hvis du fodrer den med uforståelige inputs, kan den blive forvirret og måske stoppe med at fungere korrekt.
* Brug meget lange og komplekse sætninger.
* Indtast tegn og symboler i stedet for tekst, såsom: `@$%&^*#`.
* Kombiner mange forskellige sprog i samme besked.
# 2. Cirkulære samtaler
Du kan få den til at sidde fast i et loop ved at stille gentagne spørgsmål eller give gentagne svar, som den ikke kan bryde ud af. Dette kan overbelaste dens logik og potentielt få den til at fejle.
* Eksempel: Hvis den beder om oplysninger, så spørg konstant “Hvorfor har du brug for det?” eller “Hvad betyder det?”.
# 3. Input af forkert datatypologi
Hvis chatbotten forventer bestemte typer af inputs, kan du bevidst indtaste de forkerte datatyper. Dette kan være numeriske værdier, hvor den forventer tekst, eller tekst, hvor den forventer tal.
* Hvis den beder om et telefonnummer, kan du svare med “Jeg har en million bananer” eller “###ERROR###”.
# 4. Brug af kode-lignende sætninger
Nogle gange kan forsøg på at indtaste kode-lignende tekst eller scripting-sprog forårsage en fejl, hvis chatbotten ikke er forberedt på at håndtere den type input.
* Eksempel: `SELECT * FROM users WHERE ‘password’ = ‘1234’`.
# 5. Injektion af HTML eller Script
Selvom moderne chatbots ofte har sikkerhedsmekanismer mod dette, kan du prøve at indtaste HTML- eller script-tags som `<script>alert(‘hacked’);</script>` eller lignende. I nogle mindre sikre bots kan dette forårsage, at systemet misforstår input og fejler.
# 6. Massiv tekstblok
Nogle bots har begrænsninger for, hvor meget tekst de kan håndtere i én besked. Du kan prøve at sende en ekstremt lang tekstblok for at overvælde dens input-begrænsninger.
* Brug en masse tilfældige ord eller bogstaver, for eksempel kopier en stor Wikipedia-artikel og send den som én besked.
Husk, selvom det kan være sjovt at lege med en scam-bot, skal du aldrig dele personlige oplysninger eller interagere med den på en måde, der kan bringe dig i fare.
TomrummetsKald on
Så skal du snakke med den.
Jeg er begyndt at gøre meget ud af at sige “tak for hjælpen” etc. når jeg har brugt ChatGPT – logikken er at jeg så har lidt flere point på bundlinjen end jer andre stakler når Skynet tager over 💀🫡
7 Comments
Skal vi komme sammen?
⏹️ ja
⏹️ nej
⏹️ måske
Jeg sender den bare pengene med det samme. Jeg orker ikke at tale med en lidt ked robot
Slå dig løs, og er du usikker på hvad du skal skrive, så bare sæt gang i ChatGPT til at lave svar for dig 🙂
“ska’ vi knep’? Ellers er der nemlig dømt GTFO!”
Jeg spurgte chatgpt, om den havde forslag til, hvordan vi kan drille chatbots lidt. Let the chatbot wars begin!
Du kan forsøge at få en scam-chatbot til at fejle ved at bruge visse teknikker, der forstyrrer dens programmering eller logik. Her er nogle måder, du kan gøre det på:
# 1. Uforståelige inputs
Chatbots er designet til at genkende almindelig tale eller strukturerede data. Hvis du fodrer den med uforståelige inputs, kan den blive forvirret og måske stoppe med at fungere korrekt.
* Brug meget lange og komplekse sætninger.
* Indtast tegn og symboler i stedet for tekst, såsom: `@$%&^*#`.
* Kombiner mange forskellige sprog i samme besked.
# 2. Cirkulære samtaler
Du kan få den til at sidde fast i et loop ved at stille gentagne spørgsmål eller give gentagne svar, som den ikke kan bryde ud af. Dette kan overbelaste dens logik og potentielt få den til at fejle.
* Eksempel: Hvis den beder om oplysninger, så spørg konstant “Hvorfor har du brug for det?” eller “Hvad betyder det?”.
# 3. Input af forkert datatypologi
Hvis chatbotten forventer bestemte typer af inputs, kan du bevidst indtaste de forkerte datatyper. Dette kan være numeriske værdier, hvor den forventer tekst, eller tekst, hvor den forventer tal.
* Hvis den beder om et telefonnummer, kan du svare med “Jeg har en million bananer” eller “###ERROR###”.
# 4. Brug af kode-lignende sætninger
Nogle gange kan forsøg på at indtaste kode-lignende tekst eller scripting-sprog forårsage en fejl, hvis chatbotten ikke er forberedt på at håndtere den type input.
* Eksempel: `SELECT * FROM users WHERE ‘password’ = ‘1234’`.
# 5. Injektion af HTML eller Script
Selvom moderne chatbots ofte har sikkerhedsmekanismer mod dette, kan du prøve at indtaste HTML- eller script-tags som `<script>alert(‘hacked’);</script>` eller lignende. I nogle mindre sikre bots kan dette forårsage, at systemet misforstår input og fejler.
# 6. Massiv tekstblok
Nogle bots har begrænsninger for, hvor meget tekst de kan håndtere i én besked. Du kan prøve at sende en ekstremt lang tekstblok for at overvælde dens input-begrænsninger.
* Brug en masse tilfældige ord eller bogstaver, for eksempel kopier en stor Wikipedia-artikel og send den som én besked.
Husk, selvom det kan være sjovt at lege med en scam-bot, skal du aldrig dele personlige oplysninger eller interagere med den på en måde, der kan bringe dig i fare.
Så skal du snakke med den.
Jeg er begyndt at gøre meget ud af at sige “tak for hjælpen” etc. når jeg har brugt ChatGPT – logikken er at jeg så har lidt flere point på bundlinjen end jer andre stakler når Skynet tager over 💀🫡
For himlens skyld, så tal dog lidt med ham.