Публикации по теме 'neural-networks'


DeepMind предлагает новый преобразователь зрения для произвольного размера и разрешения
Vison Transformer (ViT) стал доминировать в области компьютерного зрения. Он продемонстрировал превосходную производительность и гибкость при обработке входных последовательностей различной длины. Его высокая производительность сделала его грозным претендентом на замену обычной сверточной нейронной сети (CNN). В новой статье Patch n’ Pack: NaViT, преобразователь изображения для любого соотношения сторон и разрешения исследовательская группа Google DeepMind представляет расширенную..

Google и TAU исследуют, как LLM на основе трансформаторов извлекают информацию из своих параметров
Большие языковые модели (LLM) на основе трансформеров, обученные на огромных объемах общедоступных данных, преуспели в сборе и хранении фактических знаний. В то время как предыдущие исследования были сосредоточены на том, как фактические ассоциации сохраняются в параметрах модели, вопрос о том, как LLM извлекают эти ассоциации во время вывода, остается относительно малоизученным.

Визуальное руководство по планировщикам скорости обучения в PyTorch
Стратегии распада и отжига LR для глубокого обучения в Python Какова скорость обучения в глубоком обучении? Нейронные сети имеют множество гиперпараметров, влияющих на производительность модели. Одним из необходимых гиперпараметров является скорость обучения (LR), которая определяет, насколько меняются веса модели между этапами обучения. В простейшем случае значение LR является фиксированным значением от 0 до 1. Однако выбор правильного значения LR может оказаться сложной..

Где я нахожу новости о глубоком обучении (обновление 2022 г.)
Трудно найти надежные источники информации, когда вы только начинаете заниматься глубоким обучением. Это сэкономит ваше время, усилия и головную боль. Существует множество бесплатных ресурсов по машинному обучению, но их огромный объем затрудняет их просмотр. Не все из них надежны или хорошо написаны. Когда вы только начинаете глубокое обучение, плохо написанное руководство может помочь…

Базовая архитектура сверточной нейронной сети (CNN)
Автор: Яш Гупта В моей последней статье, которую вы можете найти здесь , мы определили нейронные сети как основу глубокого обучения. Нейронные сети добавляют человеческий интеллект к машинам, буквально имитируя основную часть человеческого мозга (о которой вы также можете найти больше в посте Джоанны здесь , если вам интересно): нейронная сеть, которая перемещает нейроны по всему мозгу для вывода ответа на определенный стимул. Однако существует множество типов этих искусственных..

Почему это называется градиентным спуском!
Почему это называется градиентным спуском! Если производная всегда является постоянной величиной, как сделать ее равной нулю!

Является ли обучение с самоконтролем будущим ИИ?
Крупнейшие технологические компании разрабатывают искусственный интеллект, способный обучаться самостоятельно Самостоятельное обучение (SSL) часто называют «будущим искусственного интеллекта». Google и Facebook используют этот метод машинного обучения, чтобы установить новые ориентиры в области обработки естественного языка и компьютерного зрения.