1. Новости

0% — столько неправильных диагнозов поставил ChatGPT пациентам психиатрической клиники на основе их историй болезни

Уче­ные пред­ло­жи­ли Chat­GPT по­ста­вить ди­а­гно­зы ста па­ци­ен­там пси­хи­ат­ри­че­ской боль­ни­цы на ос­но­ве их ис­то­рий бо­лез­ни. Ис­кус­ствен­ный ин­тел­лект по­чти ни разу не ошиб­ся. Ис­сле­до­ва­ние опуб­ли­ко­ва­но в жур­на­ле Asian Jour­nal of Psy­chi­a­try.

Ис­сле­до­ва­те­ли из Мель­бурн­ско­го уни­вер­си­те­та в Ав­стра­лии ре­ши­ли про­ве­рить, на­сколь­ко Chat­GPT 3.5 ком­па­нии Ope­nAI мо­жет быть по­ле­зен пси­хи­ат­рам. Они от­прав­ля­ли ней­ро­се­ти ис­то­рии бо­лез­ней и за­да­ва­ли во­про­сы о плане ле­че­ния.

Два опыт­ных пси­хи­ат­ра, ко­то­рые пре­по­да­ют в уни­вер­си­те­те, оце­ни­ли от­ве­ты ней­ро­се­ти по че­ты­рех­балль­ной шка­ле от A (очень хо­ро­шо) до D (пло­хо).

В 61 слу­чае Chat­GPT по­лу­чил наи­выс­шую оцен­ку — А, в 31 — В, и 8 раз его от­ве­ты оце­ни­ли на оцен­ку C. При этом ни один ди­а­гноз Chat­GPT нель­зя было опре­де­лить как невер­ный. Мо­дель луч­ше все­го по­ка­за­ла себя при пред­ло­же­нии пла­нов ле­че­ния рас­стройств, симп­то­мов и при по­ста­нов­ке ди­а­гно­зов.

«Из на­ше­го ис­сле­до­ва­ния оче­вид­но, что Chat­GPT 3.5 об­ла­да­ет зна­чи­тель­ны­ми зна­ни­я­ми и на­вы­ка­ми ин­тер­пре­та­ции в пси­хи­ат­рии. Та­ким об­ра­зом, Chat­GPT 3.5, несо­мнен­но, име­ет по­тен­ци­ал для пре­об­ра­зо­ва­ния об­ла­сти ме­ди­ци­ны, и мы под­чер­ки­ва­ем его по­лез­ность в пси­хи­ат­рии по­сред­ством вы­во­дов на­ше­го ис­сле­до­ва­ния. Од­на­ко для того, что­бы лю­бая мо­дель ИИ была успеш­ной, необ­хо­ди­мы обес­пе­че­ние на­деж­но­сти, ва­ли­да­ции ин­фор­ма­ции, над­ле­жа­щие ру­ко­во­дя­щие прин­ци­пы и струк­ту­ра ре­а­ли­за­ции», — по­де­лил­ся ав­тор ис­сле­до­ва­ния Рас­сел Фран­ко Д’­Со­уза.