Недавнее исследование подтверждает, что большие языковые модели (LLM), такие как ChatGPT, способны следовать инструкциям и создавать иллюзию общения, но не могут самостоятельно осваивать новые навыки без явных указаний. Это подчеркивает их контролируемость и относительную безопасность. В будущем, несмотря на улучшение способности генерировать сложные языковые конструкции и более точные ответы на детализированные подсказки, вероятность того, что ИИ начнет мыслить самостоятельно, остается крайне низкой. Доктор Хариш Тайяр Мадабуши, соавтор исследования и специалист по информатике из Университета Бата, комментирует: «Паника по поводу потенциальной угрозы от ИИ отвлекает внимание от реальных проблем и мешает более широкому внедрению и развитию этой технологии». Обеспокоенность потенциальной угрозой ИИ высказывают как неопытные пользователи, так и некоторые ведущие ученые. Однако исследования показывают, что генеративный ИИ не обладает способностями к глубокому мышлению; он просто генерируе
ИИ не способен к самостоятельному обучению и не представляет угрозы
23 августа 202423 авг 2024
1
1 мин