Pygame和Open AI实施

时间:2019-11-21 11:34:43

标签: python python-3.x reinforcement-learning openai-gym

我和我的同学决定尝试将AI代理实施到我们自己的游戏中。我的朋友基于以前的项目完成了大部分代码,我想知道PyGame和OpenAI如何一起工作。尝试进行一些研究,但实际上找不到有关此特定主题的任何有用信息。有人说很难实施,但有人说它可行。无论哪种方式,我都希望您对这个项目有意见,如果您是您,我将如何处理。

游戏非常简单(只有一个输入)并且线性困难。基本上,您只想避开以角色(you)为中心位于屏幕上的绿色方块。绿色方块之间的间隔相同,这意味着生成速率完全相同。这是代码,但不是很好清洗或抛光,但我们的第一个示例:

    import pygame
    import time

    start_time = time.time()
    pygame.init()

    win_dim = 800
    win = pygame.display.set_mode((win_dim, win_dim))


    class Char:

       def __init__(self, x, y, dim, score):

           self.x = x
           self.y = y

           self.dim = dim
           self.score = score

           self.vsp = 0

       def draw_char(self, color):

           pygame.draw.rect(win, (color[0], color[1], color[2]), (self.x, self.y, self.dim, self.dim))

       def jump(self):

           keys = pygame.key.get_pressed()

           if keys[pygame.K_SPACE] and self.y == 400:
               self.vsp = 5

           self.y -= self.vsp

           if self.y < 400:
               self.vsp -= 0.15
           else:
               self.y = 400


    class Cactus:

        def __init__(self, dim):

           self.dim = dim

           self.cac = []
           self.speed = 0

        def startcac(self, x):

           if x % 100 == 0:

               stop_time = time.time()
               self.cac.append(801)


           for i in range(0, len(self.cac)):

               if self.speed < 4:
                   self.speed = 1 + x * 0.0005
               else:
                   self.speed == 10

               self.cac[i] -= self.speed
               pygame.draw.rect(win, (0, 200, 0), (self.cac[i], 400, 20, 20))

           try:
               if self.cac[0] < 0:
                   self.cac.pop(0)
           except IndexError:
               pass


        def collision(self, blob_cords):

           if any(i in [int(i) for i in self.cac] for i in [i for i in range(380, 421)]) and blob_cords[1] >= 380:
               self.cac = []

           dist = 0

           if len(self.cac) >= 2:
               # print(self.cac[-1] - self.cac[-2], blob.x - 1)
               for i in self.cac:
                   if i > 400 + 20:
                       dist = (i - 400 - 20) / (self.cac[-1] - self.cac[-2])

                       break

           if dist <= 1:
               print(dist)
               print(self.speed / 4)




    blob = Char(400, 400, 20, 0)
    # "player"
    cac = Cactus(20)
    # obstacle

    x = 1


    if __name__ == '__main__':

       game = True
       while game:
           pygame.time.delay(1)

           for event in pygame.event.get():
               if event.type == pygame.QUIT:
                   game = False

           # Draws things on screen

           win.fill((0, 0, 0))
           blob.jump()
           blob.draw_char([150, 0, 0])
           cac.startcac(x)
           x += 1
           cac.collision((blob.x, blob.y))

           # Updates movements and events

           # Update display

           pygame.display.update()

       pygame.QUIT()

真的很抱歉,即使是需要这样的草率代码,但是如果您对一些仅用于启动或改造项目的指导表示感谢。

谢谢!

1 个答案:

答案 0 :(得分:1)

PyGame和OpenAI-Gym可以很好地协作。我无法评论您发布的游戏代码,这完全取决于您。如果游戏有效,那么它就会起作用。

但是要使用PyGame创建AI代理,您需要首先将您的环境转换为Gym环境。可以通过遵循此guide来完成。

之后,您可以使用RL库来实现您的代理。我的建议是Stable-Baselines,这是openai基准的一个很好的分支,使用起来容易得多。

如果您想为自己的作业提供参考,请查看我前一阵子的project。我创建了BlockDude游戏的副本,并将其转换为OpenAI Gym。然后,我在此colab笔记本中使用了stable-baselines