Remiantis „Associated Press“ pranešimu, programinės įrangos inžinieriai, kūrėjai ir akademiniai tyrėjai kelia rimtą susirūpinimą dėl transkripcijos iš „OpenAI’s Whisper“.
Nors netrūko diskusijų apie generatyvaus dirbtinio intelekto polinkį haliucinuoti – iš esmės sugalvoti daiktus – šiek tiek stebina tai, kad tai yra transkripcijos problema, kai galima tikėtis, kad nuorašas tiksliai atitiks transkribuojamą garso įrašą.
Vietoj to tyrėjai sakė AP, kad Whisper į nuorašus įtraukė viską nuo rasinių komentarų iki įsivaizduojamų medicininių gydymo būdų. Ir tai gali būti ypač pražūtinga, nes „Whisper“ naudojamas ligoninėse ir kitose medicinos srityse.
Mičigano universiteto mokslininkas, tyrinėjęs viešus susirinkimus, aštuoniose iš 10 garso įrašų aptiko haliucinacijas. Mašininio mokymosi inžinierius ištyrė daugiau nei 100 valandų Whisper transkripcijos ir daugiau nei pusėje jų rado haliucinacijas. Ir kūrėjas pranešė, kad beveik visose 26 000 transkripcijose, kurias sukūrė su Whisper, rado haliucinacijų.
„OpenAI“ atstovas sakė, kad bendrovė „nuolat stengiasi pagerinti mūsų modelių tikslumą, įskaitant haliucinacijų mažinimą“, ir pažymėjo, kad jos naudojimo politika draudžia naudoti „Whisper“ „tam tikrais svarbiais sprendimų priėmimo kontekstais“.
„Dėkojame mokslininkams už pasidalinimą savo išvadomis“, – sakė jie.