Публикации по теме 'gpt-2'


Создатель AI Dungeon 2 поделился советом по настройке GPT-2
Представляя бесконечные видеоигры В детстве я играл в текстовые приключения на семейном TI-82 с магнитофоном. У меня остались яркие воспоминания о классической игре Скотта Адамса Pirate Adventure , ранней текстовой видеоигре. Геймплей был прост. Вы начинаете с того, что стоите в лондонской квартире и должны проложить свой путь к таинственному острову, набирая простые команды, такие как «запад», «подняться по лестнице» или «помощь». Когда вы набирали «получить ром», игра ответила:..

Объяснение ABBA к BERT и GPT-2
Смотреть! Без математики Да хоть убей, я не мог понять, как работают BERT или GPT-2. Читаю статьи; последовательные диаграммы; покосился на уравнения; смотрели записанные классы; прочитать документацию по коду; и все еще изо всех сил пытался во всем этом разобраться. Дело было не в математике. Скорее всего, как-то не хватало той большой части, которая, как вы ожидали, предшествовала мелочам. Эта статья восполняет этот пробел, объясняя простым языком, как построены эти..

Руководство: Finetune GPT2 (1,5 Б)
Мне нужно было настроить модель параметров GPT2 1,5 миллиарда для проекта, но модель не подходила для моего графического процессора. Итак, я понял, как запустить его с высокой скоростью и градиентными контрольными точками, что уменьшает требуемую память графического процессора. Я надеюсь, что это руководство поможет некоторым людям, которые также хотят настроить GPT2, но не хотят настраивать распределенное обучение. Вы можете найти репозиторий с самой последней версией руководства здесь..

Вопросы по теме 'gpt-2'

Отсутствуют скрипты для точной настройки GPT-2 и вывода в Hugging-face GitHub?
Я слежу за документацией на веб-сайте обнимающего лица, там говорится, что для точной настройки GPT-2 я должен использовать скрипт run_lm_finetuning.py для точной настройки и скрипт run_generation.py для вывода. Однако на самом деле оба...
231 просмотров

Сколько символов можно ввести в приглашение для GPT-2
Я использую модель OpenAI GPT-2 из github . Я думаю, что параметр top_k определяет, сколько токенов будет отобрано. Является ли это также параметром, определяющим размер подсказки? Если top_k = 40, насколько большим может быть приглашение?
591 просмотров
schedule 08.12.2022