본문 바로가기

전체 글2568

강원도 동해안 정동진 바다부채길, 해안트레킹: 🚅 전구간 개방! 천연기념물 해안 트레킹 코스 당일치기 기차여행 🚅 전구간 개방! 길 전체가 천연기념물인 최고의 해안 트레킹 코스목차🛤️ Step 1: 서울역에서 동해바다로 출발🌊 Step 2: 정동진역 도착🚴 Step 3: 레일바이크와 시간박물관🌅 Step 4: 바다부채길 트레킹 시작🪨 Step 5: 특이한 바위들과 전망대🛳️ Step 6: 심곡항 도착🌊 Step 7: 헌화로 트레킹🏖️ Step 8: 금진해변🚉 Step 9: 서울로 복귀🛤️ Step 1: 서울역에서 동해바다로 출발오늘 아침 일찍 서울역에 도착했습니다. KTX를 타고 동해바다로 떠나는 첫 차는 오전 7시 1분에 출발합니다. 가격은 일반실 기준으로 약 18,300원이며, 이 노선은 항상 인기가 많습니다.동해바다로 가는 열차는 14번 플랫폼에서 탑니다. 최신 KTX 이음열차로, 동해바.. 2024. 7. 18.
한국 최고의 해안산책로 BEST 6 목차🚶‍♂️ Step 1: 배알도 수변공원🌊 Step 2: 정동심곡 바다부채길🌉 Step 3: 초곡 용굴 촛대 바위길🌄 Step 4: 고하도 해상 데크🏞️ Step 5: 이기대 해안산책로🌅 Step 6: 한담 해안 산책로  🚶‍♂️ Step 1: 배알도 수변공원배알도 수변공원은 전남 광양시에 위치해 있으며, 해맞이 다리가 배알도와 공원을 연결해 줍니다. 이곳은 망덕산을 향해 절을 하는 모습에서 유래된 이름입니다.배알도와 망덕 포구를 이어주는 별 해는 다리는 길이 275미터, 폭 3미터의 현수교식 해상보도교입니다. 이 다리는 곡선미와 단순미를 자랑합니다.배알도 근린공원에는 포토존과 쉼터가 잘 조성돼 있으며, 다리의 디자인은 윤동주의 시 '별 해는 밤'에서 영감을 받았습니다. 투명 유리 구간과 .. 2024. 7. 18.
한국 최고의 해안산책로 BEST 7, 둘레길, 데크길, 해변길 목차Step 1: 무의도 해상 관광 탐방로 🌊Step 2: 호미 반도 해안 둘레길 🏞️Step 3: 소무의도 둘레길 🌲Step 4: 승봉도 해안산책로 🌅Step 5: 국화도 해안 산책로 🌻Step 6: 웅도 해안 산책로 🦀Step 7: 송악산 둘레길 🌋Step 1: 무의도 해상 관광 탐방로 🌊첫 번째 여행지는 인천시 무의도의 무의도 해상 관광 탐방로입니다. 하나개 해수욕장 좌측에 위치해 있으며, 호룡곡산 해변을 따라 800미터의 길이로 이어집니다.만조 시에는 절벽에 부서지는 시원한 파도를 감상할 수 있고, 간조 시에는 여러 귀안개석의 풍경이 도드라집니다. 바다 위를 걷는 기분을 느끼도록 만조 시를 추천합니다.탐방로 입구부터 시원한 파도와 기암괴석이 우리를 반겨줍니다. 여러 기암괴석에 대한 .. 2024. 7. 18.
태국에서 꼭 사야 할 쇼핑 아이템 추천 목차🍜 Step 1: 랭섹 라면🥜 Step 2: 와사비 땅콩🍗 Step 3: 나스나스 닭껍질🍓 Step 4: 딸기 말린 것🍫 Step 5: 퍼쉐이 롤🌽 Step 6: 오크루뚜 젤리🍯 Step 7: 태국 꿀🍹 Step 8: 쌤송 술🧼 Step 9: 마다믹 비누🪥 Step 10: 태국 치약🌞 Step 11: 니베아 바디 선크림🩸 Step 12: 풀림프레시 생리대https://www.youtube.com/watch?v=yhhacoshvMo 🍜 Step 1: 랭쌥 라면태국에서 첫 번째로 추천드릴 제품은 랭쌥 라면입니다. 이 라면은 방콕 차이나타운에서 먹었던 맛과 동일한 국물 맛을 가지고 있습니다. 컵라면 형태로 되어 있어 간편하게 즐길 수 있습니다.너무 맛있어서 밥을 말아먹기도 했습니다... 2024. 7. 18.
Lab 6-2: Q-Network를 활용한 카트폴 강화 학습 Lab 6-2: Q-Network를 활용한 카트폴 강화 학습지난 강의에서는 Q-Network를 사용하여 프로즌 레이크 환경에서 강화 학습을 수행했습니다. 이번에는 더 재미있는 환경인 카트폴(CartPole)을 이용하여 Q-Network를 적용해 보겠습니다. 카트폴은 막대기(cart)의 균형을 맞추는 게임으로, 이 환경을 통해 강화 학습의 실제 적용 예를 배울 수 있습니다.https://www.youtube.com/watch?v=MF_Wllw9VKk 카트폴 환경 소개카트폴 환경은 카트 위에 막대기를 세우고, 이를 왼쪽 또는 오른쪽으로 움직여 균형을 유지하는 게임입니다. 목표는 막대기가 넘어지지 않도록 최대한 오래 유지하는 것입니다. 이 환경은 OpenAI의 Gym 라이브러리에서 제공되며, 강화 학습 알고리.. 2024. 7. 18.
Lab 6-1: Q-Network를 활용한 프로즌 레이크 강화 학습 Lab 6-1: Q-Network를 활용한 프로즌 레이크 강화 학습지난 강의에서 우리는 Q-테이블을 사용하여 Q-learning을 학습하는 방법을 배웠습니다. 그러나 Q-테이블은 큰 상태 공간을 다룰 때 비효율적이므로, 이번에는 Q-Network를 사용하여 강화 학습을 수행해 보겠습니다. 이를 위해 TensorFlow를 이용하여 Q-Network를 구현하고, 이를 프로즌 레이크 환경에 적용해 보겠습니다.Q-Network 개요Q-Network는 신경망을 사용하여 주어진 상태에서 가능한 모든 행동에 대한 Q값을 출력합니다. 이는 Q-테이블보다 훨씬 더 큰 상태 공간을 효율적으로 처리할 수 있게 해줍니다.Q-Network의 기본 구조Q-Network의 입력은 현재 상태이며, 출력은 가능한 모든 행동에 대한 Q.. 2024. 7. 18.
Lecture 6: Q-Network를 활용한 강화 학습 Lecture 6: Q-Network를 활용한 강화 학습지난 강의에서 우리는 Q-테이블을 사용하여 Q-learning을 학습하는 방법을 배웠습니다. Q-테이블을 활용하면 간단한 환경에서 최적의 정책을 쉽게 학습할 수 있습니다. 그러나 현실 세계의 복잡한 문제를 해결하려면 더 큰 상태 공간이 필요합니다. 이번 강의에서는 Q-Network를 사용하여 이러한 문제를 해결하는 방법을 학습하고, 실제로 구현해 보겠습니다.https://www.youtube.com/watch?v=w9GwqPx7LW8 Q-테이블의 한계와 Q-Network의 필요성Q-테이블은 간단한 문제를 해결하는 데는 효과적이지만, 상태 공간이 커지면 실용적이지 않습니다. 예를 들어, 100x100 크기의 격자 환경을 생각해 봅시다. 이 경우 상태 .. 2024. 7. 18.
Lab 05-1: 비결정론적 세계에서의 Q-learning 학습 Lab 05-1: 비결정론적 세계에서의 Q-learning 학습이번 강의에서는 여러분을 무시무시한 바람이 심하게 부는 프로즌 레이크의 세계로 초대합니다. 이전 강의에서 소개한 비결정론적(nondeterministic) 환경에서 Q-learning 알고리즘이 어떻게 동작하는지 실제로 구현하고 실습해보겠습니다. 이를 통해 비결정론적 환경에서 Q-learning이 얼마나 효과적으로 작동하는지 확인해볼 것입니다.https://www.youtube.com/watch?v=ZCumo_6qTsUhttps://www.youtube.com/watch?v=B-CZv9WD5eM 비결정론적 환경 이해하기비결정론적 환경이란 동일한 행동을 반복해도 항상 동일한 결과를 얻지 못하는 환경을 의미합니다. 예를 들어, 꽁꽁 얼어붙은 호수.. 2024. 7. 18.
반응형