Newyorský soud řešil kuriózní případ. Muž žaloval leteckou společnost kvůli údajné osobní újmě. Jeho právní tým podal při soudním líčení krátký výstup, ve kterém zmiňoval několik předchozích soudních případů, aby dokázal, že by měl být jejich případ rozhodnout podle předešlých verdiktů stejné povahy.
Právníci letecké společnosti zjistili, že několik zmiňovaných případů nelze dohledat. V dopise adresovanému soudci právníci uvedli, že nemohou najít několik případů, na které se výstup odkazuje. „Šest podaných případů se zdá být falešnými soudními rozhodnutími s falešnými citacemi a falešnými vnitřními odkazy,“ napsal soudce Castel v nařízení.
Právník před soudem přiznal, že při tvorbě podkladů použil program strojové umělé inteligence ChatGPT a dále uvedl, že „si nebyl si vědom, že obsah může být nepravdivý.“ Nejde přitom o žádného právnického nováčka, ale o právníka s třicetiletou praxí Stevena A. Schwartze. „Lituji toho, že jsme spoléhal na chatbota. Nikdy dříve jsem ho pro právní výzkum nepoužil,“ řekl Schwartz a přislíbil, že v budoucnu již nikdy umělou inteligenci při tvorbě podkladů nepoužije.