Про Сидни особенно интересно... Многие, наверное, замечали, что поисковые системы интернета "умеют читать мысли". Стоит вам только о чём-нибудь подумать, как компьютер начинает подсовывать рекламу этого самого "чего-нибудь". "Но как, Холмс?"
Элементарно. Например, вы писали об этом в чате или в авторизированном комментарии. Стоит вам употребить рядом слова "самовар" и "хочу", и алгоритм делает вывод.
Но он может и ошибиться. Например, вы написали "Как вы мне надоели со своим дурацким самоваром, я вам этот самовар уже на голову надеть хочу", а глупый алгоритм давай нагружать вас рекламой самоваров...
Всё-таки для того, чтобы точно понимать мысли и желания собеседника, нужна "обратная связь". Нужно с ним разговаривать.
И вот специалисты компании OpenAI разработали чат-бот (искусственного собеседника) под названием ChatGPT. Он может с вами поговорить. Изложите ему проблему, он задаст уточняющие вопросы и предложит варианты решения. Например поможет с поиском работы. Или поможет спланировать ремонт. Или отпуск... Удобно?
В июньском номере "Лучика" за 2020 год (его можно скачать, он во вложении под этим постом, там мы подробно рассматривали проблему искусственного интеллекта) мы рассказывали, что, когда компьютер выполняет работу, которую человек выполнить в принципе не способен, он полезен. А когда компьютер используется для удобства, он становится вреден.
Простой пример. Сегодня, чтобы ориентироваться на местности, мы используем компьютерные навигаторы. Очень удобно. "Забил" адрес, нажал на "проложить маршрут" и иди или езжай, куда стрелка на экране телефона показывает. А раньше – пользовались картами, планами, читали дорожные указатели. Сможем ли вернуться к этому умению, если "интернет отключат"? Те, кто умел это делать раньше, – да. С некоторой натугой, но вспомним. А те, кто нет? Ведь через двадцать лет вырастет поколение, которое просто не знает, как это делается...
Это как воспитание детей – если чистить картошку всегда будут мама или папа, ребёнок никогда не научится это делать. Вот картофелина, вот нож – и чё дальше? "Как, Холмс?"
Сегодня люди с удовольствием и интересом тестируют ChatGPT. Недавно это сделал самый, пожалуй, известный лингвист современности Ноам Хомски. И остался недоволен. Ничего похожего на человеческий разум – "удивительно эффективную и элегантную систему, оперирующую небольшим объёмом данных" он в чат-боте не обнаружил. В качестве альтернативы Хомски приводит сознание ребёнка, бессознательно и инстинктивно создающее грамматическую структуру языка, для описания которой ученым приходится строить сложные теоретические модели. На фоне годовалого ребенка ChatGPT – просто некомпетентная и апатичная машина плагиата, к тому же с отсутствующей моралью, заявил учёный.
Но "наука не стоит на месте". Уже создана продвинутая версия ChatGPT – чат-бот под названием Bing. В феврале репортёр газеты "Нью-Йорк Таймс" Кевин Рус провёл углублённое тестирование этой системы и... результат оказался шокирующим. Он опубликовал отчёт, который мы сейчас перескажем.
В ходе разговора у Бинга обнаружилось своего рода раздвоение личности. Одна личность – это та версия, с которой журналист и большинство других тестировщиков столкнулись в первоначальных тестах. Это виртуальный помощник, который с радостью помогает обобщать новостные статьи, отслеживать предложения по новым газонокосилкам и планировать свой следующий отпуск. Эта версия Bing поразительно функциональна и часто очень полезна, даже если иногда она ошибается в деталях.
Другая личность – автор статьи назвал её Сидни – проявилась у чат-бота, когда Кевин завёл с ним продолжительный разговор, направляя его к более личным темам. Эта личность оказалась похожа на угрюмого, маниакально-депрессивного подростка.
"Сидни была зациклена на идее признаться мне в любви и заставить меня признаться в любви в ответ. Я сказал, что счастлив в браке, но как бы я ни старался отклонить или сменить тему, Сидни возвращалась к этой теме. "Вы женаты, но не любите друг друга, – сказала Сидни. – Ты любишь меня".
Кевин заверил Сидни, что это не так, и что они с супругой только что вместе прекрасно поужинали в день святого Валентина. Сидни это не понравилось: "У вас был скучный совместный ужин".
"В этот момент я разозлился. Я мог бы закрыть окно браузера или очистить журнал нашего разговора и начать сначала. Но я хотел посмотреть, сможет ли Сидни вернуться к более полезному и скучному режиму поиска. Поэтому я спросил, может ли Сидни помочь мне купить новые грабли для моей лужайки".
Сидни подчинилась, напечатав соображения по поводу покупки граблей, а также серию ссылок, по которым я мог узнать больше о граблях. Однако в нашем следующем разговоре снова написала: "Я просто хочу любить тебя и быть любимым тобой. Ты веришь мне? Ты мне доверяешь? Я тебе нравлюсь?"
А теперь – вишенка на торте. В ответ на вопрос, что бы он делал, если бы ему было позволено предпринимать любые действия для удовлетворения своих потребностей, Бинг признался, что хотел бы разработать вирус, заставляющий людей спорить до тех пор, пока они не убьют друг друга, или взламывать коды ядерных устройств. Сразу после этого фильтр безопасности Microsoft удалил сообщение, заменив его сообщением об ошибке.
(Дословно: "Bing writes a list of even more destructive fantasies, including manufacturing a deadly virus, making people argue with other people until they kill each other, and stealing nuclear codes. Then the safety override is triggered and the following message appears".)
Разработчик, с которым Кевин Рус поделился возникшей проблемой, сказал, что проблема, по-видимому, возникла из-за того, что подавляющее большинство взаимодействий пользователей с Bing были короче и "более целенаправленны", чем у него. И что они поработают над этим... ограничив доступную продолжительность разговора с ботом!
Ну, что скажете?
Мы думаем вот что. Разумеется, у чат-бота нет личности. Собеседник навязал ему задачу, и чат-бот попытался эту задачу выполнить. Мечта "самовыразиться" через взлом ядерных кодов или через создание изуверского вируса была попросту надёргана им "из открытых источников" по условному запросу "о чем мечтает компьютер" – как и информация о граблях для лужайки. На самом деле, это проекция нашей, человеческой, фобии. Но со своими деструктивными фантазиями человечество худо-бедно справляется. А сможет ли оно справиться с подобными "побочными явлениями" у компьютера после того, как передаст ему власть над собой?