8 подписчиков
CHAT GPT И ПРИЧЕМ ЗДЕСЬ ИЗУЧЕНИЕ КИТАЙСКОГО?
Вы пробовали переводить китайские вывески или меню с китайского машинным переводом? Если нет, то наверняка видели кучу мемов, где перевод плохой. Даже не плохой, а просто какая-то дичь.
С другой стороны есть ChatGPT, который это делает виртуозно. Давайте разберемся в механизмах работы машинного перевода и LLM моделей(технологии, на которой работает Chat GPT).
На заре появлении машинного перевода лингвисты собрались и сказали: "ну все ребята, сейчас мы напишем компьютеру правила, по которым работает язык и все". Объясним железяке где подлежащее, сказуемое, какое слово принадлежит какой части речи, какой порядок слов предложении и отправим переводчиков на свалку истории".
Нихрена не получилось. И особо ничего не получалось до прошлого года, пока не появился Chat GPT, который начал переводить в разы лучше своих предшественников. Причем перевод в нем оказался побочным эффектом, его специально никто не программировал для этих целей.
Давайте теперь разберемся по какому принципу работают LLM модели(Large Language Models) . Для начала, давайте вспомним как на старых телефонах работал т9. У нас было 9 кнопок, каждой кнопке соответствовал разный набор букв. После набора телефон сам вам предлагал слово, которое наиболее подходило под тот набор букв и количество символов, которые вы дали ему на ввод. Телефон обращался к своему словарю и выбирал самый частотный вариант.
LLM модели жонглируют не буквами, а необъятными объемами текстов. Выражаясь простым языком, chatGPT с невероятным успехом угадывает какое слово написать следующим, опираясь на все те контексты, на которых он учился. В него не встроены грамматические правила, он не анализирует предложения по членам, не выделяет части речи. Он просто пользуется шаблонами.
Ноам Хомский, самый известный из ныне живущих лингвистов, предположил, что все вещи, которыми человек пытается описать язык на самом деле в языке не существуют. В языке нет существительных, нет сказуемых, нет падежей и всего прочего.
Какой вывод из этого можем сделать мы? Давайте брать пример с отличника Chat GPT, а не с двоечника Google Translate 2005 года.
Наш мозг с большей эффективностью учиться также как ChatGPT, нам нужно загружать в него кучу контекста, чтобы он смог начать автоматизировать языковые шаблоны и уметь ими активно пользоваться. Язык хаотичен и очень часто отклоняется от грамматических норм. Грамматический анализ предложений и текстов МОЖЕТ помочь, но не ставьте его во главу угла. Чтобы овладеть языковыми навыками, мы должны делать упор на ввод. Подробнее про ввод в этом посте.
А если вы не хотите тратить свое время зря и учиться быстрее, то вступайте в ряды языкового спецназа
2 минуты
20 февраля 2024