deep-reinforcement-learning
  • 介绍
  • 前言
    • 神经网络
    • 研究平台
      • 街机游戏
      • 竞速游戏
      • 第一人称射击游戏
      • 开放世界游戏
      • 即时战略游戏
      • 团队体育游戏
      • 文字冒险游戏
      • OpenAI Gym & Universe
  • 方法
    • 街机游戏
      • DQN
      • DRQN
      • Gorila
      • Double DQN
      • Prioritized Experience Replay
      • Dueling DQN
      • Bootstrapped DQN
      • Multiagent DQN
      • Progressive Neural Networks
      • A3C
      • Retrace(λ)
      • ACER
      • ACKTR
      • TRPO
      • PPO
      • UNREAL
      • IMPALA
      • Distributional DQN
      • Noisy-Net
      • Rainbow
      • ES
      • NS-ES
      • Deep GA
      • Playing Atari with Six Neurons
      • UCTtoClassification
      • Policy Distillation
      • Actor-Mimic
      • Action-Conditional Video Prediction
      • Self-Supervision
      • HRA
    • 蒙特祖玛的复仇
      • Hierarchical-DQN
      • DQN-CTS
      • Pixel Recurrent Neural Networks
      • DQN-PixelCNN
      • Ape-X
      • DQfD
      • Ape-X DQfD
      • Natural Language Guided Reinforcement Learning
    • 竞速游戏
      • Direct Perception
      • DDPG
      • TD3
    • 第一人称射击游戏
      • SLAM-Augmented DQN
      • Direct Future Prediction
      • For The Win
    • 开放世界游戏
      • H-DRLN
      • Feedback Recurrent Memory Q-Network
      • Teacher-Student Curriculum Learning
    • 即时战略游戏
      • Puppet Search
      • Combined Strategic and Tacticals
      • Zero Order
      • IQL
      • COMA
      • BiC-Net
      • Macro-action SL
      • Macro-action PPO
      • On Reinforcement Learning for Full-length Game of StarCraft
      • AlphaStar
    • 团队体育游戏
      • DDPG + Inverting Gradients
      • DDPG + Mixing policy targets
      • Object-centric prediction
    • 文字冒险游戏
      • LSTM-DQN
      • DRRN
      • Affordance Based Action Selection
      • Golovin
      • AE-DQN
    • 开放的挑战
      • 游戏通用性
      • 稀疏、延迟、欺骗性的回报
      • 多智能体
      • 终身适应
      • 像人类一样玩游戏
      • 可调节的性能等级
      • 处理巨大的状态空间
      • 工业界应用
      • 游戏开发的交互式工具
      • 创造新的游戏
      • 学习游戏的模型
      • 计算资源
  • 附录
    • Distributional RL
      • QR-DQN
    • Policy Gradient
      • Off-Policy Actor-Critic
      • Generalized Advantage Estimation
      • Soft Actor-Critic
      • PPO-Penalty
    • Model-Based RL
      • I2A
      • MBMF
      • MBVE
      • World Models
    • Imitation Learning and Inverse Reinforcement Learning
      • GAIL
    • Transfer and Multitask RL
      • HER
Powered by GitBook
On this page

Was this helpful?

  1. 方法
  2. 开放的挑战

工业界应用

由于Facebook,Google / Alphabet,微软和亚马逊等各种不同公司对其发展投入巨大的兴趣,DL的许多最新进展已经加速。 然而,游戏产业并没有将这些进步与这种进步相提并论。这有时让游戏行业以外的评论家感到惊讶,因为游戏被视为大量使用人工智能技术。然而,游戏行业中最常用的AI类型更多地侧重于手工创作表达非玩家角色(NPC)行为而不是机器学习。在这个行业中采用神经网络(和类似方法)的一个经常被引用的原因是这些方法本质上难以控制,这可能导致不必要的NPC行为(伊根NPC可能决定杀死一个相关的关键角色 到了故事)。此外,训练深度网络模型需要一定程度的专业知识,该领域的专家库仍然有限。这对于应对这些挑战非常重要,以鼓励游戏行业广泛采用。

此外,尽管大多数DL方法都专注于玩游戏,但这个目标对于游戏行业来说可能并不是最重要的。这里是玩家在玩重要组件时体验到的乐趣或参与度。游戏制作过程中玩游戏的DL的一个用途是用于游戏测试,其中人工代理测试该等级是可解决的或难度是合适的。DL可能会在游戏行业中看到它最重要的用途,不是为了玩游戏,而是为了根据对现有内容的训练,或者对于玩家体验建模来生成游戏内容。

在游戏行业中,包括EA,Ubisoft 和Unity在内的几家大型开发和技术公司最近开始在内部研究部门,主要集中在深度学习上。 这些技术还将被这些公司或其客户的发展方式所接受,还有待观察。

Previous处理巨大的状态空间Next游戏开发的交互式工具

Last updated 6 years ago

Was this helpful?