Публикации по теме 'gpt-2'
Создатель AI Dungeon 2 поделился советом по настройке GPT-2
Представляя бесконечные видеоигры
В детстве я играл в текстовые приключения на семейном TI-82 с магнитофоном. У меня остались яркие воспоминания о классической игре Скотта Адамса Pirate Adventure , ранней текстовой видеоигре.
Геймплей был прост. Вы начинаете с того, что стоите в лондонской квартире и должны проложить свой путь к таинственному острову, набирая простые команды, такие как «запад», «подняться по лестнице» или «помощь». Когда вы набирали «получить ром», игра ответила:..
Объяснение ABBA к BERT и GPT-2
Смотреть! Без математики
Да хоть убей, я не мог понять, как работают BERT или GPT-2.
Читаю статьи; последовательные диаграммы; покосился на уравнения; смотрели записанные классы; прочитать документацию по коду; и все еще изо всех сил пытался во всем этом разобраться.
Дело было не в математике.
Скорее всего, как-то не хватало той большой части, которая, как вы ожидали, предшествовала мелочам.
Эта статья восполняет этот пробел, объясняя простым языком, как построены эти..
Руководство: Finetune GPT2 (1,5 Б)
Мне нужно было настроить модель параметров GPT2 1,5 миллиарда для проекта, но модель не подходила для моего графического процессора. Итак, я понял, как запустить его с высокой скоростью и градиентными контрольными точками, что уменьшает требуемую память графического процессора.
Я надеюсь, что это руководство поможет некоторым людям, которые также хотят настроить GPT2, но не хотят настраивать распределенное обучение.
Вы можете найти репозиторий с самой последней версией руководства здесь..
Вопросы по теме 'gpt-2'
Отсутствуют скрипты для точной настройки GPT-2 и вывода в Hugging-face GitHub?
Я слежу за документацией на веб-сайте обнимающего лица, там говорится, что для точной настройки GPT-2 я должен использовать скрипт run_lm_finetuning.py для точной настройки и скрипт run_generation.py для вывода. Однако на самом деле оба...
231 просмотров
schedule
17.09.2021
Сколько символов можно ввести в приглашение для GPT-2
Я использую модель OpenAI GPT-2 из github .
Я думаю, что параметр top_k определяет, сколько токенов будет отобрано. Является ли это также параметром, определяющим размер подсказки?
Если top_k = 40, насколько большим может быть приглашение?
591 просмотров
schedule
08.12.2022