ChatGPT имел огромный успех и стал важной вехой в истории человечества. Онбординг почти 5 миллионов пользователей за 5 дней — это действительно замечательно. Это породило новые тенденции, такие как оперативное проектирование, и вызвало дебаты на такие темы, как Будущее системы образования. Ходили слухи об увольнениях в результате замены People на ChatGPT. Промышленность никогда не была в таком хаосе.

Этот блог пытается добавить еще несколько точек зрения к текущим дебатам.

Инструмент против работника

Человечество всегда было рабочим, и оно использовало множество инструментов, чтобы продвинуться на этот этап. Рабочий — это тот, кто производит продукцию, используя различные инструменты и процессы. Инструмент – это то, что можно использовать для достижения определенной цели.

ChatGPT — это инструмент, который помогает работнику обобщать имеющиеся знания на основе подсказки. Он не генерирует контент, не прогнозирует события и не анализирует информацию.

С детства я помню, как мне приходилось выступать с речью о Махатме Ганди в День независимости. Я думаю, это было в 3-м или 4-м стандарте, то есть в 2005 или 2006 году. У меня был компьютер, но не было доступа к Интернету. Я пошел в офисную библиотеку моей мамы за книгами о Ганди. Я собрал информацию из книги и написал свою речь с выдержками из нее.

Вернемся к 12-му классу (или последнему классу школы), когда мне нужно было подготовить отчет о стволовых клетках в рамках моего проекта по биотехнологии. У меня был ограниченный доступ в Интернет с использованием сети 2G, которая была очень дорогой (1 ГБ в месяц за 249 фунтов стерлингов). Я загружал статьи и документы из нескольких источников в Интернете. Я читаю новостные статьи, страницы Википедии и их источники (да, источники тоже). Мне потребовалось много времени, чтобы собрать и написать отчет. Самым сложным был поиск информации, которая еще не упоминалась в предыдущих статьях.

В обоих приведенных выше примерах моя цель была бы легко достигнута с помощью ChatGPT, но я бы упустил процесс сбора и анализа информации.

Недостатки больших языковых моделей, таких как ChatGPT

A. Резюме работает как сокращение размера

Любое резюме текста уменьшает длину текста, собирая только важные строки или слова. Это означает, что произошла потеря информации. Человек, резюмирующий текст, приводит к потере информации о конечном тексте, но все же сохраняет часть удаленной информации внутри нашего мозга.

С ChatGPT, без какого-либо упоминания об источниках или происхождении, было бы очень сложно узнать уровень потери информации, связанный с ним. В критических ситуациях такая информация может отсутствовать и быть очень опасной. Есть цитата: «Пустое знание — это плохо, но полузнание еще хуже».

B. Страдает языковой предвзятостью

Английский был наиболее используемым языком в Интернете, но появляется местный контент. Хотя в настоящее время модели для больших языков работают с контентом на английском языке, поддержка местного языка является ключевой проблемой.

Я задал ChatGPT простой вопрос — переведённый на ассамский язык вопрос «Что подразумевается под книгой». Хотя он отлично отвечает на английском, но на ассамском (কিতাপ বুলিলে কি বুজোৱা হয়), он отвечает следующее.

“কিতাপ বুলিলে কি বুজোৱা হয়” এমন একটি বাংলা প্রশ্ন নেই। অনুগ্ৰহ করে সঠিক প্রশ্ন প্রদান করুন।

Это означает: «Нет такого бенгальского вопроса, как «что подразумевается под книгой». Пожалуйста, задайте правильный вопрос». . Ответ, очевидно, неверен, но что интересно, он определяет язык как бенгальский, когда это не так (у них близость, но не один и тот же язык).

C. Вопрос по философии

В то время как фактические вопросы в основном имеют прямые ответы, ответы могут повторяться, если один и тот же вопрос задан 100 раз. Но философский вопрос всегда будет зависеть от личных убеждений и опыта. Чтобы получить разные точки зрения, вам нужно спрашивать разных людей, которые ChatGPT или любая другая большая языковая модель не могут понять.

Ответ человека всегда формируется его опытом и знаниями. Ответы не всегда могут следовать логической структуре или анализу, который трудно полностью смоделировать. Ответ ChatGPT ограничен ответами, присутствующими в обучающих данных. Это делает человеческий ответ гораздо более ценным, чем автогенерация.

D. Процесс против результатов

Люди - сложные организмы. Некоторым из нас процесс нравится больше, чем результат деятельности. Например, при написании этого блога мне нравится писать его из собственных мыслей, мало заботясь о реакции на него других. Важно то, что мы позволяем себе выражать себя, а не сосредотачиваемся исключительно на результате.

Я спросил близкую подругу, будет ли она использовать искусственный интеллект, такой как ChatGPT, в своей личной жизни. Ее ответ был таким же. Она любит писать; следовательно, процесс написания вручную доставляет ей больше удовольствия, чем просто создание контента.

E. Вопрос повторяемости

Система образования находится в хаосе из-за влияния ChatGPT на учащихся и того, как его будут использовать не по назначению. Что ж, это, безусловно, полезно для студентов, но если все студенты будут использовать его, результаты обязательно будут одинаковыми. Если источник известен, можно восстановить контент, используя аналогичные подсказки, которые легко обнаружить.

Во-вторых, теперь вопросы будут больше сосредоточены на анализе, чем на текстовом содержании (ratta maar на хинди). Ответы были бы гораздо более ценными, и преподавание активизировалось бы.

ChatGPT можно считать просто еще одной книгой. Эта книга ответит почти на все вопросы, но она все равно потребует потребления человеком. Без людей, потребляющих контент, не было бы никакого контента.

Заключение

В заключение, ChatGPT никуда не денется, но не заменит людей в ближайшее время. Из-за наличия таких генераторов контента основное внимание будет уделяться людям. Наши ответы теперь будут гораздо более ценными. Это должно породить больше свободных мыслителей, чем последователей.