АПосле многих лет, когда компьютеры говорили «нет» и вызывали у всех нас мигрени и преждевременную седину, я начинаю беспокоиться о том, что компьютеры — или, скорее, большие языковые модели искусственного интеллекта, такие как ChatGPT и Gemini — становятся слишком заинтересованы в том, чтобы вести себя хорошо и говорить «да». Я признаю, что использую обе эти программы, но я заметил, что создается впечатление, что они пытаются успокоить такими утверждениями, как «Ты абсолютно прав, Джефф» и «Это в значительной степени идеально». Часто, когда я спрашиваю: «Не мог бы ты подумать об этом еще немного?», я получаю другой ответ: «Джефф, ты совершенно прав, что еще раз подверг сомнению этот результат. Оказывается, я немного поторопился с ответом…»
Если мир еще больше будет использовать информацию, извлеченную из кучи Интернета LLM, каковы будут последствия? Можем ли мы надеяться на будущее, в котором ИИ будет больше заботиться о том, чтобы выглядеть сочувствующим (получать хорошие отзывы?), а не о фактах? Э, слишком человечно? Джефф Коллетт, Эдинбург
Опубликуйте свои ответы (и новые вопросы) ниже или отправьте их сюда. nq@theguardian.com. Подборка будет опубликована в следующее воскресенье.