본문 바로가기

TensorFlow2

Lab 6-2: Q-Network를 활용한 카트폴 강화 학습 Lab 6-2: Q-Network를 활용한 카트폴 강화 학습지난 강의에서는 Q-Network를 사용하여 프로즌 레이크 환경에서 강화 학습을 수행했습니다. 이번에는 더 재미있는 환경인 카트폴(CartPole)을 이용하여 Q-Network를 적용해 보겠습니다. 카트폴은 막대기(cart)의 균형을 맞추는 게임으로, 이 환경을 통해 강화 학습의 실제 적용 예를 배울 수 있습니다.https://www.youtube.com/watch?v=MF_Wllw9VKk 카트폴 환경 소개카트폴 환경은 카트 위에 막대기를 세우고, 이를 왼쪽 또는 오른쪽으로 움직여 균형을 유지하는 게임입니다. 목표는 막대기가 넘어지지 않도록 최대한 오래 유지하는 것입니다. 이 환경은 OpenAI의 Gym 라이브러리에서 제공되며, 강화 학습 알고리.. 2024. 7. 18.
Lab 6-1: Q-Network를 활용한 프로즌 레이크 강화 학습 Lab 6-1: Q-Network를 활용한 프로즌 레이크 강화 학습지난 강의에서 우리는 Q-테이블을 사용하여 Q-learning을 학습하는 방법을 배웠습니다. 그러나 Q-테이블은 큰 상태 공간을 다룰 때 비효율적이므로, 이번에는 Q-Network를 사용하여 강화 학습을 수행해 보겠습니다. 이를 위해 TensorFlow를 이용하여 Q-Network를 구현하고, 이를 프로즌 레이크 환경에 적용해 보겠습니다.Q-Network 개요Q-Network는 신경망을 사용하여 주어진 상태에서 가능한 모든 행동에 대한 Q값을 출력합니다. 이는 Q-테이블보다 훨씬 더 큰 상태 공간을 효율적으로 처리할 수 있게 해줍니다.Q-Network의 기본 구조Q-Network의 입력은 현재 상태이며, 출력은 가능한 모든 행동에 대한 Q.. 2024. 7. 18.
반응형