Air Canada hevder at det ikke er ansvarlig for sin egen chatbots hallusinasjoner

  Fly svette scene

Når skal vi kalle det, fam? Når skal vi endelig innrømme at chatbots og AI faktisk ikke kan gjøre jobben til mennesker? Hvor mange svindel , PR-katastrofer , og offentlige debakler skal det til før vi til slutt sier: «Ja, vet du hva? Å stole på tankeløse roboter for all vår kunst og kunnskap er kanskje ikke den gode ideen vi trodde det var.'

Anbefalte videoer

Den siste AI-katastrofen? Vel, den er et par uker gammel, så den er ikke så ny som AI-generert Willy Wonka knockoff , men det er fortsatt ganske forbløffende. En mann ved navn Jake Moffatt trengte å fly til Toronto etter at bestemoren hans døde, så han spurte Air Canadas chatbot hvordan dødsraten fungerte. Chatboten ba ham kjøpe en billett til full pris og deretter be om en delvis refusjon innen 90 dager, noe han gjorde – og passet på å ta et skjermbilde av chatbotens veiledning.

Da det var på tide å få tilbakebetalingen, fortalte Air Canada til Moffatt at chatboten var feil. Du skjønner, generativ AI - teknologien bak ting som kundeservice chatbots - er mottakelig for det som kalles 'hallusinasjoner', eller informasjon som AI utgjør. I fjor for eksempel et par advokater havnet i dyp dritt da de fikk ChatGPT til å skrive teksten til et søksmål for dem, og så fant ut at det siterte en haug med rettssaker som faktisk ikke eksisterte. AI kan ikke skille mellom sann og usann informasjon. Alt den kan gjøre er å remikse eksisterende tekst til noe som høres plausibelt ut.

Utrolig nok hevdet flyselskapet at rotet var Moffatt sin feil fordi han ikke hadde sjekket chatbotens veiledning mot flyselskapets offisielle retningslinjer. I følge flyselskapets begrunnelse burde Moffatt ha visst at kundeserviceverktøyet Air Canada leverte ikke kunne stoles på. Antagelig, hvis vingene falt av flyet midt på flyet, ville Air Canada angripe kunder for å gå ombord på det i utgangspunktet.

Air Canada nektet å utstede refusjonen, så Moffatt tok flyselskapet til retten og vant. Air Canadas forsvar er enda mer absurd enn dets opprinnelige avslag på å utstede refusjonen. I følge flyselskapet er chatboten - som, la meg understreke, flyselskapet bruker på sin egen nettside for å svare på kundenes spørsmål - ' en egen juridisk enhet som er ansvarlig for sine egne handlinger.'

Hvis en menneskelig ansatt ga en kunde falsk informasjon, kan Air Canada tenkes å gi kunden refusjonen, og holde den ansatte ansvarlig på sin side. Men å hevde at en robot, som ikke tjener en lønnsslipp og bare gjør det du programmerer den til å gjøre, er dens egen juridiske enhet? Kom deg ut herfra med det.

Kan vi være så snill å stoppe? Slutt å produsere fjell av AI gobbledegook, slutt å erstatte dyktige mennesker med inkompetente roboter, slutt å late som om AI på en eller annen måte kommer til å gjøre samfunnet bedre? Det fungerer ikke, venner. Avlys det. AI gjør bare alt verre.

Jacob Wohl og Laura Loomer

(via Ars Technica , fremhevet bilde: Paramount Pictures)

Forfatter

Julia Glassman Julia Glassman (hun/henne) har en MFA fra Iowa Writers' Workshop, og har dekket feminisme og media siden 2007. Som stabsskribent for DiariodeunchicotraBajador dekker Julia Marvel-filmer, folkeskrekken, sci fi og fantasy, film og TV , tegneserier og alt som er hektisk. Under pennenavnet Asa West er hun forfatteren av den populære zinen 'Five Principles of Green Witchcraft' (Gods & Radicals Press). Du kan sjekke ut mer av forfatterskapet hennes på https://juliaglassman.carrd.co/.</a>