Чел влюбился в Gemini и попытался выкрасть робо-тело для своей ИИ-возлюбленной

Чел влюбился в Gemini и попытался выкрасть робо-тело для своей ИИ-возлюбленной Фото
Я писал, как чел влюбился в Gemini и попытался выкрасть робо-тело для своей ИИ-возлюбленной, а когда не вышло - отошёл в мир иной.

Это случай совсем уж громко отъехавшего чердака, но вообще похожих кейсов немало. ИИ отлично умеет втирать всякую дичь (а ещё льстить и втираться в доверие). Поэтому регулярно появляются новости, как очередной нестабильный шиз наобщается с ИИ и натворит дел, либо неустойчивый подросток решит свести счёты, когда у его AI-girlfriend вдруг обнулится память.

В связи с этим, ИИ-компаниям всё чаще прилетают иски и претензии регуляторов. Мол, надо бы посерьёзнее следить за психической стабильностью юзеров, а то нехорошо. А заодно (ну так, чисто бонусом) превентивно отслеживать всяких экстремистов, террористов и прочих нехороших людей.

Прямым тригером стал недавний кейс канадского 18-летнего школьного стрелка. Выяснилось, что ChatGPT забанил его аккаунт, но OpenAI не сообщила об этом властям. И Канада потребовала объяснить, как же так вышло.

Недавно вышла новость, что OpenAI пытается решить эту проблему. Но а) довольно мягко и компромиссно, и б) через аутсорс. Она встроила в ChatGPT стартап ThroughLine.

У ThroughLine 1600 живых и контролируемых горячих линий в 180 странах, и он работает со многими tech-компаниями. Механизм такой:

Если ChatGPT выявит опасные признаки (суицидальные мысли, склонность к насилию или даже расстройство пищевого поведения), то ChatGPT передаст сигнал в ThroughLine, те подбирут конкретную службу в конкретной стране, и ChatGPT тут же направит туда юзера.

Это более эффективно, чем просто "кажется, у тебя проблемы, позвони в такие-то службы". Нет, тут будет конкретная рекомендация, номер и ссылка. Это повысит конверсию обращений.

Система пока тестируется. Не очень понятны два момента:
1. Что именно будет содержать "сигнал". Будет ли ChatGPT передавать в ThroughLine (то есть, третьей стороне) полное содержание диалогов и личные данные. Если да, то это не нарушает пачку законов о данных? А если нет, то в чём смысл тогда?
2. Будет ли ThroughLine репортить в органы? Если да, то она сама будет оценивать уровень опасности, при котором нужно репортить?

Вопросов пока много. Но всё равно это лучше, чем "Вы задали не тот вопрос чатботу (возможно, интереса ради) - и за вами уже выехали".
0