![Deep Q-Learning - Combining Neural Networks and Reinforcement Learning](https://i.ytimg.com/vi/wrBUkpiRvCA/hqdefault.jpg)
Содержание
- Определение - Что означает Deep Q-Networks?
- Введение в Microsoft Azure и Microsoft Cloud | Из этого руководства вы узнаете, что такое облачные вычисления и как Microsoft Azure может помочь вам перенести и запустить свой бизнес из облака.
- Techopedia объясняет Deep Q-Networks
Определение - Что означает Deep Q-Networks?
Deep Q Networks (DQN) - это нейронные сети (и / или связанные с ними инструменты), которые используют глубокое Q-обучение для предоставления таких моделей, как симуляция интеллектуальных игр в видеоигры. Вместо того, чтобы быть конкретным именем для конкретной сборки нейронной сети, Deep Q Networks может состоять из сверточных нейронных сетей и других структур, которые используют определенные методы для изучения различных процессов.
Введение в Microsoft Azure и Microsoft Cloud | Из этого руководства вы узнаете, что такое облачные вычисления и как Microsoft Azure может помочь вам перенести и запустить свой бизнес из облака.
Techopedia объясняет Deep Q-Networks
В методе глубокого изучения Q обычно используется то, что называется общей итерацией политики, описываемой как сочетание оценки политики и итерации политики, для изучения политик из многомерного сенсорного ввода.
Например, распространенный тип глубокой Q-сети, освещаемой в технических публикациях, таких как Medium, использует сенсорный вклад видеоигр Atari 2600 для моделирования результатов. Это делается на очень фундаментальном уровне, собирая образцы, сохраняя их и используя их для воспроизведения опыта с целью обновления Q-сети.
В общем смысле, глубокие Q-сети обучаются на входах, которые представляют активных игроков в областях или других опытных выборках, и учатся сопоставлять эти данные с желаемыми выходами. Это мощный метод в развитии искусственного интеллекта, который может играть в игры, такие как шахматы на высоком уровне, или выполнять другие высокоуровневые познавательные действия - пример игры в Atari или в шахматы - хороший пример того, как ИИ использует типы интерфейсов, которые традиционно использовались человеческими агентами.
Другими словами, с глубоким обучением Q игрок ИИ становится больше похожим на игрока в обучении для достижения желаемых результатов.