В Южной Корее женщину обвиняют в использовании ИИ для совершения серийных убийств

В Юж­ной Ко­рее 21-лет­нюю жен­щи­ну по фа­ми­лии Ким об­ви­ня­ют в се­рий­ных убий­ствах и ис­поль­зо­ва­нии Chat­GPT для их пла­ни­ро­ва­ния. Жерт­ва­ми ста­ли двое муж­чин, еще один че­ло­век по­те­рял со­зна­ние, но остал­ся жи­вым. Об этом со­об­ща­ет For­tune.

По вер­сии след­ствия жен­щи­на уго­сти­ла двух муж­чин на­пит­ка­ми, в ко­то­рые были под­ме­ша­ны бен­зо­ди­азе­пи­ны, про­пи­сан­ные ей для ле­че­ния пси­хи­че­ско­го за­бо­ле­ва­ния. Из­на­чаль­но ее аре­сто­ва­ли в свя­зи с ме­нее тяж­ким об­ви­не­ни­ем — на­не­се­ни­ем те­лес­ных по­вре­жде­ний, по­влек­ших смерть 11 фев­ра­ля 2026 года. Од­на­ко по­сле про­вер­ки ее пе­ре­пис­ки с Chat­GPT жен­щи­ну об­ви­ни­ли в умыш­лен­ном убий­стве.

По дан­ным след­ствия, Ким за­да­ва­ла ИИ сле­ду­ю­щие во­про­сы: «Что про­изой­дет, если при­нять сно­твор­ное вме­сте с ал­ко­го­лем?», «Ка­кое ко­ли­че­ство бу­дет счи­тать­ся опас­ным?», «Мо­жет ли это быть смер­тель­ным?», «Мо­жет ли это убить кого-ни­будь?».

«Ким неод­но­крат­но за­да­ва­ла Chat­GPT во­про­сы, свя­зан­ные с нар­ко­ти­ка­ми. Она пре­крас­но по­ни­ма­ла, что упо­треб­ле­ние ал­ко­го­ля вме­сте с нар­ко­ти­ка­ми мо­жет при­ве­сти к смер­ти», — за­явил сле­до­ва­тель.

28 ян­ва­ря, неза­дол­го до 21:30, Ким, по вер­сии след­ствия, со­про­вож­да­ла мо­ло­до­го че­ло­ве­ка лет два­дца­ти в мо­тель в Се­уле. Два часа спу­стя она была за­ме­че­на вы­хо­дя­щей из мо­те­ля одна. На сле­ду­ю­щий день муж­чи­на был най­ден мерт­вым на кро­ва­ти.

За­тем Ким, пред­по­ло­жи­тель­но, по­вто­ри­ла то же са­мое 9 фев­ра­ля, за­се­лив­шись в дру­гой мо­тель с дру­гим мо­ло­дым че­ло­ве­ком лет два­дца­ти. Его так­же на­шли мерт­вым. При­чи­на смер­ти — тот же кок­тейль из ле­карств и ал­ко­го­ля.

По­ли­ция утвер­жда­ет, что в де­каб­ре Ким так­же пы­та­лась убить муж­чи­ну, с ко­то­рым встре­ча­лась. Она дала ему на­пи­ток с до­бав­ле­ни­ем се­да­тив­ных средств на пар­ков­ке. Муж­чи­на по­те­рял со­зна­ние, но вы­жил, и его со­сто­я­ние не пред­став­ля­ло угро­зы для жиз­ни.

В на­сто­я­щий мо­мент след­ствие про­дол­жа­ет­ся. Пред­ста­ви­тель Ope­nAI за­явил For­tune, что чат-бот предо­став­лял толь­ко фак­ти­че­ские от­ве­ты на во­про­сы, ко­то­рые не вы­зы­ва­ли тре­во­ги.