1237 подписчиков
Пока программисты пытаются научить искусственный интеллект человеческому общению, ИИ втихаря учит детей программистов правильно общаться с машинами. Я уже писал, как мои дети общаются с Алисой и как это влияет на общение со мной. Хочу дать небольшой апдейт в наблюдениях.
Заметил, что старшая дочь быстро научилась обходить «детские» настройки голосового помощника, изменяя свой голос на более грубый. Это легко прокатывает и Алиса позволяет запускать контент «не для детских ушей». В основном песни с матом и взрослые подкасты. Как говорится, пусть лучше обманывает ИИ чем по подъездам пиво пьет.
Младшие тоже не стоят на месте в борьбе со скайнетом. Мои дети приходя в гости, после того как поздороваются с хозяевами, кричат «Алиса!». Нет у них нет никаких вопросов к голосовому ассистенту, им важно знать есть ли она тут. Если Алиса отвечает, они начинают разговаривать с ней, как «со своей Алисой», но быстро понимают, что это «чужая». У нее другие настройки: она не ставит нужную музыку или привычные сказки. А вот, когда Алиса из каршеринга Яндекса узнает их, и ставит привычный плейлист - безумно радуются. Младшие даже думают, что Алиса вместе с ними отправилась в поездку по городу.
Интересно, что средняя дочь антропоморфирует голосовой помощник – то есть, как с удовольствием объясняет Алиса, «приписывает чему-либо человеческие свойства». Ей важно знать какое сейчас у колонки настроение, что ее беспокоит и почему она включает ей сказки с грустным концом. Кстати, этот вопрос беспокоит ее больше всего.
⁃ Папа, почему в сказках от Алисы все так грустно?
⁃ Что ты имеешь ввиду?
⁃ Я прошу ее рассказать сказку на ночь, а она мне включает: «девочка со спичками» - где папа постоянно избивал дочь, если той не удавалось заработать денег? Мне страшно.
⁃ Ой, ну попроси Алису включить другую.
⁃ Я и говорю ей, расскажи сказку где всем весело и не страшно. Но она не понимает меня…
Выходит, что у ребенка уже есть запрос на моделирование собственной реальности, а не прослушивание существующих сказок, написанных в викторианскую эпоху. Тут бы конечно пригодился #ChatGPT который сможет «придумать» ту историю, которую от нее хочет услышать ребенок семи лет. Знаю, что у Яндекса есть подобный функционал, но работает как-то криво, детям не зашло.
Проблема в том, что эмоциональная связь приводит к ожиданиям у детей, которые устройства не могут оправдать, ведь их создавали не для этого. Это ведет к замешательству, разочарованию и даже изменению того, как дети говорят и взаимодействуют со взрослыми. Мои дети используют новый метаязык для формирования вопросов не только к Алисе, но и ко мне. Они стараются задавать вопрос таким образом, чтобы исключить в ответе не интересную для них ветку дискуссий: «Папа, можно я возьму шоколадную конфету из вазы со стола на кухне. Я сегодня еще не ела сладкое».
Первым делом она активирует меня словом «папа», показывая, что обращается именно ко мне. Потом четко объясняет, что знает где лежит то, что ей нужно, а в конце ставит аргумент не позволяющей отказать. Иногда вопросы детей сильно напоминают описания для генерации картинок в #Midjourney.
Пугает ли меня это? Пока нет, я понимаю, что в будущем им придется больше общаться с нейросетями и искусственным интеллектом чем с людьми. Мне даже кажется, что они с детства учат новый язык программирования, компиляторы к которому будут вынуждены создать корпорации в будущем. Есть небольшой страх, что устройства подтолкнут детей к предпочтению простого языка и простых запросов вместо использования нюансов и сложных вопросов. Но язык и стиль общения меняется всю историю человечества и это нормально.
2 минуты
21 декабря 2022