GIS회사 중 망고소프트?인가 가 있다.

국내에서는 OSGEO에서 Gaia 3D 신상희 대표님과 함께 매우 유명한 곳인것 같다.

그중 이민파 소장님?이 만든 TMS for Korea 플러그인은 국내 GIS를 하는 사람들에게 매우 소중한 도구 일 것이다.


ArcGIS에도 Naver, Daum 지도를 Basemap으로 할 수 있으나, 소수의 사람들만이 해당 기능을 사용함에 따라 코드가 잘 돌아다니지 않는 것 같다.


본인은 QGIS 2.6을 사용하고 있으며, ArcMap 10.0 - 10.3, ArcGIS Pro등을 자유롭게 사용하고 있다.

QGIS 와 ArcMap 둘다 장단점이 있기 때문에 무엇이 더 좋다 나쁘다 할 수 없다.

하지만 QGIS의 가장 좋은 기능은 오픈소스이기 때문에 다양한 사람들이 만들어 놓은 플러그인들을 사용할 수 있음이다.



오늘은 QGIS의 기능중 하나인 TMS for Korea의 기능을 조금 살펴보고자 한다.

QGIS 설치방법과 QGIS 플러그인 사용방법 정도는 Biz-GIS 등에서 설명하고 있으니 넘어가고..


한번 살펴 보자.


일단 다음지도를 배경으로 깔았다.

참고로 다음지도를 배경으로 깔았을때 최대로 줌인이 가능한건 Lv 18인가 그러하다.

그래서 1:2000 이 최대 줌인이다.



2016년 7월 10일 현재 map.daum.net에서 해당 지도를 확인해보자



눈썰미가 좋은 GIS 전문가들이여, 다른점이 보이는가?

강남순환도시고속도로가 업데이트가 되어있지 않다.

그래서 업데이트 하는 방법을 알려주도록 하겠다.



QGIS를 설치하고 TMS for Korea를 설치하면 당신의 컴퓨터에 다음과 같은 디렉토리가 생길것이다.


C:\Users\(당신컴퓨터 이름)\.qgis2\python\plugins\tmsforkorea\weblayers\html


여기

여기서 javascript의 다음, 네이버 지도의 tile map 서버 링크?를 수정만 하면된다.



기본 지도만 일단 수정해 보겠다.

다음 기본 지도는 OpenLayers.Layer.DaumStreet.js에 있고 notepad ++ 나 뭐 편집기 아무거나 써서 열어보자

우리가 수정할 부분은 저 형광펜 친 부분이다.


다음 서버에서 제공하는 타일지도를 받아오는 링크인데, 현재 링크는 업데이트되지 않은 타일의 링크이다. 업데이트되도 다음은 지우지 않고 계속 유지하나보다.


url: [

    "http://i0.maps.daum-img.net/map/image/G03/i/var2201/L${z}/${y}/${x}.png",

    "http://i1.maps.daum-img.net/map/image/G03/i/var2201/L${z}/${y}/${x}.png",

    "http://i2.maps.daum-img.net/map/image/G03/i/var2201/L${z}/${y}/${x}.png",

    "http://i3.maps.daum-img.net/map/image/G03/i/var2201/L${z}/${y}/${x}.png"

    ],


이렇게 된 URL을 다음지도 네트워크 리액션을 활용해서 각 타일의 URL을 확인하면 


현재는

http://map3.daumcdn.net/map_2d/166joy/L4/980/439.png

이런식으로 바뀌어져 있다.


즉,

http://i0.maps.daum-img.net/map/image/G03/i/var2201/....

부분을


http://map3.daumcdn.net/map_2d/166joy/...

이걸로 치환하면됨.


즉,

url: [

    "http://map3.daumcdn.net/map_2d/166joy/L${z}/${y}/${x}.png",

    ],

이걸로 바꿔라



한번해보자


저장후 QGIS를 껏다가 다시 실행한다.



Before / After 비교



네이버는 


OpenLayers.Layer.NaverStreet.js

을 열어서


    url: [

    "http://onetile1.map.naver.net/get/135/0/0/${z}/${x}/${y}/bl_vc_bg/ol_vc_an",

    "http://onetile2.map.naver.net/get/135/0/0/${z}/${x}/${y}/bl_vc_bg/ol_vc_an",

    "http://onetile3.map.naver.net/get/135/0/0/${z}/${x}/${y}/bl_vc_bg/ol_vc_an",

    "http://onetile4.map.naver.net/get/135/0/0/${z}/${x}/${y}/bl_vc_bg/ol_vc_an"

    ],


이부분의 URL중


http://onetile1.map.naver.net/get/135/0/0..을

http://onetile1.map.naver.net/get/149/0/0/.. 으로 치환


즉,

    url: [

    "http://onetile1.map.naver.net/get/149/0/0/${z}/${x}/${y}/bl_vc_bg/ol_vc_an",

     ],

이거로 바꿔라


이와 같이 바뀐다.



지도위를 나는 카테고리에 썻는데, QGIS는 국립공원 관리공단의 유병혁님의 좋은 내용 덕분에 QGIS는 드론 이미지가지고 놀 때 자주 사용한다 (물론 ArcMap 도사용한다)


오늘도 덥다 정말.


그나저나 강남순환고속도로에 이륜차좀 다니게 해주지.. ㅜ

반응형

한동안 드론관련해서 글을 못썻다.

아무래도 겨울이 지나 드론을 띄우기도 힘들었고 (배터리 땜시..)

다양한 일이 지나갔다.


대학원생으로 써야할 논문과 채워야할 성과, 그리고 해야할 잡일/ 노예(읭?)/ 뻘짓/ 연애(읭?) 등이 날 괴롭혔다.


근래 블로그엔 안썻지만 드론을 몇번 띄웠다.

조정감각은 그대로나, 역시 이착륙시엔 항상 조심해야한다.


최근에 엔젤스윙 관계자와 같이 야외에 나갔는데,

부주의로 인해 사고가 있엇다.

항상 안전, 그리고 조심.



각설하고..





제목은 거창하게 표현했다.


드론으로 찍은 사진을 서버에 올려서 토글로 껏다 켯다하니 뭐랄까..


퍼즐맞추는 느낌이 났다.


012


이런식이다.


물론 학교외에 다른지역도 많이 촬영했는데, 왠지 업로드하면 잡혀갈것(?)같은 느낌에 올리진 않았다.



그중에서 가장 유의미했던 영역은 현재 재개발이 한창 진행중인 서울의 "어느곳"이엇다.


운이 좋게도 작년 봄에 찍은사진이 있었고, 올 봄에 찍은 사진이 있어서 이 두개를 비교하니 확실히 Before/After이 비교가 되었다.


01



시간나면 한번 더 찍고싶다.



위 사진들은 개인 서버에 웹페이지 형식으로 올렸다.

줌인/줌아웃/패닝/이미지 오버레이 등이 가능하다.


솔직히 말해서 올리고 싶은 마음이 굴뚝같으나, 뭔가 잡혀갈것(?)같아서 못올리겠다.





근래에 드론 관련 산업에 계신분에게 연락이 왔다.

NDVI를 이용해서 나무 군집을 탐색할 수 있느냐는 말이었다.


이미지 분석은 학부때 이후 해본적이 없는데...

일반적인 RGB 카메라랑 NDVI 필터를 달아서 할 예정이라고 하는데, 잘 될지 의문이다.


최근에는 학교 근처에 공사장을 촬영했다.

이 공사지역을 차례로 찍어서 토사량이나, 철거된 양의 부피를 재보려고 한다.


Measuring 3D Volume using UAV라고 해야하나..


아, 추가적으로 esri 에서 새로만든 Drone2Map을 사용했다.



Pix4D와 매우 흡사해서 놀랐는데, 로그와 이것저것을 뒤적여보니 Pix4D에서 지원을 받은것 같다.

폴더중 하나가 Pix4D*** 이라고 써있다.

분명한것은 제작 Report가 Pix4D랑 완전이 똑같다.


drone2map은 arcgis pro 계정이 있어야한다.

나는 있다. ㅎㅎㅎㅎ

그리고 나는 esri early adopter에 참여하여 열심히? 안되는것들을 질문하고 있다..


오픈소스들도 굉장히 훌륭하다. 그리고 나는 그것들을 다 이용해보았다.

역시, 돈을 준것들은 UI가 더 낫다. 또한 돈주고 구매했는데 (물론 내가 구매한건 아니지만) 방치되어 있는것이 옳지 못하여, 열심히 사용하고 있다. (esri 제품들을..)


하지만 감각을 잃지 않기 위해, OSGEO 제품 및 다양한 호환 제품들도 구경하고 있다.





이제 매주 드론 관련한 동향조사와 논문, 잡지등을 읽으려고 한다.

또한 FAA 자격증도... 도전해보려고함..

그리고 Mission Planner를 익숙하게 사용해보려고 함..

그리고 DJI의 그것도..


나도 어느정도 나이가 있다보니 .. (읭?)

도태되는 느낌이 든다.


아재라니...

벌써 아재라니..


혹시라도 Drone2Map for ARcGIS Early Adopter가 되고 싶으면

이곳을 참고하라 https://earlyadopter.esri.com/callout/?callid=5C6464DCD37840068ABC021BF59D03BE




어쩌다 보니 일기가 되었다.


본 블로그의 '지도로 생각하는'챕터의 경우 데이터와 생각만 있으면 뭐든지 만들어 낼 수 있는 나름 위험한? 자신감이 있는데


아직은 드론을 내맘대로 사용하기에 걸음마 단계라서 시행착오나 여러 생각들을 정리하는 식의 글이 된것 같다.


계속 배우고 있다.

반응형

드론으로 찍은 영상은 용량이크고 전송하기에도 벅차고, 나만 갖고 있으면 아쉽기도하고 그러하다.


예전에 Geoserver에 벡터데이터를 올려서 QGIS나 ArcGIS에서 WMS레이어로 불러온적이 있다.


학교의 전산망을 통하여 


그런식으로 포트폴리오를 정리하면 제공받는 입장에서도, 제공하는 입장에서도 깔끔할 것 같다.


엔젤스윙은 스타트업회사다. 아직 회사 홈페이지에 들어가보니 자신들이 작업한 영상들을 올려놓지 않아 아쉬운 부분이 있기도 하였다.

(사실 홈페이지에 자신들이 찍은 항공영상들을 올려놓을 수 있다면, 매우 좋은 홍보일 수 있을 것 같다)


그래서 지오서버를 다시 구축하고 (컴퓨터를 포맷해서 예전에 구축했던것은 없어짐) 구글지도 베이스를 기반으로 만들고 찍은 영상들을 Overlay하였다.


약간의 난관에 봉착하였는데 Raster데이터를 지오서버에 구축해본적이 없어서 만지작 만지작 거렸다. KMZ로 대신 올려야하는지 뭐해야하는지..


전산학의 세계는 알 수 없어 깨작깨작 거리다가 나와버렷다.


근데 아무래도 single tile이다보니 small scale에서 그림이 뭉개지는 현상이 발생했다.


   


그리고 컴퓨터가 구린건지, 전상망이 느린건지, 영상 크기가 큰건지.. 지도 렌더링이 조금 시간이 걸린다

뭔가 방법은 있을 것이다. (타일 캐쉬를 하면 도움될 것 같으나.. 타일뜨는건 웹지도 만들때 너무 많이해봐서.. 이제 그만 ㅜ_ㅠ)

APMSETUP과 지오서버를 이용하여 구축하였다.



PS:

Facebook을 통해 알게된 GIS쪽 지인 파도를 타고 가다보니. 

GU (Gis United) 사람들이 꽤나 있었다. 여기 사장님인지 Founder분이 지으신 책을 미국에서 읽은적이 있다.

보아하니 이분들도 티스토리에 연재를한다.

홍대 근처에 회사가 있는걸로 알 고 있는데 재밌게 일하시는것 같기도하다.


나중에 어떻게 될지 모르는 인연이지만 일단은 여기다 링크를 추가한다 http://gisutd.tistory.com/

반응형

나의 임무가 끝낫다.


나의 임무는 이친구들이 가져온 자료를 바탕으로 지도를 만들어주기.


사실 공간정보 전문가들한테서는 '클릭 클릭'하면 되는 일일지도 모른다.


그러나, 문제는 데이터 에러가 일부분에 있었다.

그림으로 보자.


원래는 이런식으로 되어있어야 한다.


근데 나중에 획득된 데이터를 보니 문제가 있어서 포지션상에 문제가 있어서 이런식으로밖에 지도에 안올라가는것이다.

즉, 카메라는 항상 위에서 아래를 내려다보는 식이어야하는데, 무슨 이유에서인지 옆부분에서 사진을 찍엇다고 인식하는것이다.



원인을 파악해보자

기체의 스펙은 내가 사용하는것보다 확실히 좋았다. 기체 자체의 최적화가 안되었는지 잘은 모르겠다. 


지역이 워낙 산악지형이기도 했고, 그날 태양에 흑점이 폭발했을지도 모르고,

이유는 다양하다. 내가 직접 그날 실험을 한것이 아니기 때문에 자세한 원인은 모른다.


글로 설명하면 어렵다. 사진을 보자.

Camera Location의 위치..




뭔가 camera location이 .. 정상적이지 않다

이 문제 때문에 정사영상(지표면과 수직)으로 된 영상의 POV로 설정햇는데 자꾸만 지도에는 이상하게 떳다.




그나마 괜찮은녀석.

위 지역은 이미지 모자이크가 잘됬음에도 불구하고,

GPS오차가 매우커서 구글이나 다음지도와 결합했을때 제 위치를 찾지 못하였다.



... 고생을 좀했다.

Camera Location이 심각하게 이상한 녀석을 제외하고 Georeferencing을 다시했다.


최종결과를 지도로 만들고.. 


이 결과를 구역을 나누어 자원봉사자들로하여금 공간정보데이터를 표기하게 해야했다.

물론 앱을 만들어 모바일지도플랫폼에서 입력하면 쉬우나, 시간적인 제한 때문에 거기 까지는 하지 못하였다.



처음에 엔젤스윙 대표가 나름대로 구역을 분할해왔는데, 본인 생각에 저렇게 구역을 분할하는 방법은 아프리카 대륙을 떠날때 영국과 프랑스가 자대고 나라 경계 구분한것과 별반 다르지 않은 느낌이었다.





그래서 내가 나름 영상의 왜곡정도를 확인하여 자원봉사자들이 힘들지 않게끔 다시 나누고.... 




각 구역별로 자세한 지도를 만들어줌



그렇게 만든 지도위에 자원봉사자들이 공간정보들을 가져왔다.

악취, 폐가, 낙상, 위험 등등등 


아래의 그림이 그것이다.




물론 최종결과는 이것보다는 이쁘다. 심볼을 좀 다르게 했기 때문임.



신문에 실림.

http://news.khan.co.kr/kh_news/khan_art_view.html?artid=201601192043005&code=620101






엔젤스윙이 홈페이지를 설립했다고 한다.

가봐라.

www.angelswing.org

참고로 나는 엔젤스윙과 아무런 관련이 없다.


글을 봣을때 엔젤스윙이 형편없다고 느껴지면, 경기도 오산이다.

이들은 공간정보분야 전문가가 아니고, 이것들이 그들의 실수인지 태양의 문제인지는 사실 알 수 없는 것이다.

무인항공기쪽에서는 정말 대단한 사람인것 같은 아우라가 느껴졌다.


나는 그냥 지도만드는데 도움을 줬다.



돈 많이 벌고 회사가 크면 날 채용해주세요 대표님.

월급 700만원 이상, 4대보험, 9am-4pm근무, 종신계약 해주시면 조건없이 갑니다.

반응형

좋은 계기로 인해 같은학교에 있는 친구들과 공동프로젝트?를 하게 되었다.

뭐, 나야 항상 시간이 없고 바쁘고, 여유시간엔 쉬고싶지만..


이런경험도 좋을 것 같고, 그 보다도 같이 하는 친구들의 문체나 말투가 그 나이 또래 친구들과 사뭇 달라, 무관심할 수 없었다.


같이 일하게될 친구들은 '엔젤스윙'이라는 회사를 가지고 있는 어엿한 청년사업가들로써, 인간과 사회를 위한 무인항공기를 회사의 모토로 정했다.





이친구들을 보면서 404warehouse 라는 자그만한 회사를 갖고 있는 친구가 생각이 났었는데, 이야기를 조금 나누다보니 서로 또 아는 사이기도 했다.


현재 하는 프로젝트의 주된 내용은

서울대학교 글로벌사회공헌단에서 지원을 받고 있는 공식적인 프로젝트이기도 했으며, 서울시, 관악구청, 서울시 소방재난본부에 프로젝트를 협력하기로 약속 되어 있는 것으로 알 고 있다.





이중에서 내가 부탁받은 업무는

1. 드론으로 찍은 영상을 모자이킹

2. 결과물을 프린팅하여 자원봉사자들에게 배포

3. 자원봉자자들이 쪽방촌을 답사하여 표기한 공간정보 (예, 낙상 위험지역 등 위험 시설물)를 디지털화 하여 유관기관이 쉽게 볼 수 있도록


이상 위 세가지다.

1, 2, 3번 사실 예전에 해본 경험이 있기 때문에 시간이 허용된다면 나한텐 무리가 없으리라 본다.

사실 더 좋은 방법으로는 지도를 모바일 디바이스에서 확인할 수 있도록 하면 좋겠으나,

시간적인 제한과 비용의 문제로 인하여 일단 종이지도로 변경하였다.


이쪽분야의 전문가도아니지만, 이렇게 요청이 들어오니 뿌듯하기도 부담스럽기도하다.


나를 위해서, 그리고 이친구들을 위해서라도 잘 되었으면 좋겠다.


작업과 관련한 이야기는 계속 이어 나가겠다.

반응형

요새 논문 하나를 쓰고 있어 매우 바쁜 실정이다.


기존에 했던 드론 관련 시뮬레이션 공부는 엄두도 못내고, 사진을 찍으러 나가지도 못하는 실정이다.


이 와중에... 


대학원생으로써 해야할 학술대회 발표를 하나를 썻다.




본인이 가게 될 학회이다.

아마 실험시간과 개인적인 사정으로 인해 일반논문세션중 난이도가 조금 낮은 포스터 세션으로 지원할 것 같다.

International Session도 해봄직 할 수 도 있는데, 지도 교수와 상의를 해봐야 겟다.


현재 하고 있는 방법론을 드론운항에 적용할 수 있다는 점에 의의가 있으며, 사실 이것을 얼마나 발전시킬 수 있을 진 모르겠으나, 나의 2016년도 첫 학술대회 발표가 될 것으로 생각되며, 논문 초록과 논문 제목은 Accept가 되면 올리겠다.





참고로 요새 논문일 읽고 정리하면서, 난 연구자는 안어울리는 것 같다.

반응형

http://www.etnews.com/20151127000343?SNS=00002


http://www.sammobile.com/2015/07/27/samsungs-next-big-thing-could-be-the-selfie-camera-drone/


인터넷 신문은 광고가 너무 많아 짜증남.

삼성전자가 말하길 드론이 곧바로 수익을 올릴 수 있는 분야라함.


흠... 좀더 열심히 공부해봐야겟으나, 삼성전자가 아두파일럿을 이용하려나...


관련 특허나 논문을 많이 써놔야겠다.



사진출처 : http://news.mk.co.kr/newsRead.php?year=2015&no=145826



-----------------


삼성전자가 점찍은 차세대 먹거리 `드론`, `IoT`…3D프린팅은 보류



라고 한다.


삼성전자가 차세대 먹거리 사업으로 드론과 ‘사물인터넷(IoT)’을 정조준했다. 함께 미래 신산업으로 검토했던 3D프린팅은 당장 수익을 내기 어려운 분야로 판단해 단기 집중 추진 과제에서는 빠졌다.

29일 업계에 따르면 삼성전자는 최근 내년 핵심 신규사업으로 드론과 IoT를 선정, 전략적 연구개발(R&D)과 사업화에 집중하기로 했다. 가능한 빠른 시일 안에 제품을 개발하고 시장 상황에 맞춰 제품을 조기 출시한다. 


삼성에 정통한 한 관계자는 “IT·모바일(IM) 부문 주도로 드론IoT, 3D프린팅 등을 미래 먹거리 후보로 보고 가능성을 상세히 검토했다”면서 “드론과 IoT는 내년 본격 사업화에 나서기로 결정했지만 3D프린팅은 일단 보류하기로 했다”고 말했다. 그는 “드론랩이 만들어졌고 이미 제품 연구개발과 설계를 거쳐 시험제작도 하고 있다”고 덧붙였다. 

이번 차세대 아이템 결정에는 장기적 성장 가능성과 함께 당장 내년부터 수익을 창출할 수 있는지가 중요하게 작용했다. 3D프린팅 사업을 보류하기로 한 것도 빠른 시간 안에 수익을 낼 아이템이 마땅하지 않다는 판단에서다. 

삼성전자는 드론과 IoT는 곧바로 수익을 올릴 수 있는 분야로 판단했다. 실제로 드론은 세계에서 가장 급성장하는 분야 중 하나다. 미국 방위산업 컨설팅 업체 틸그룹에 따르면 세계 드론시장 규모는 지난해 50억달러에서 오는 2020년 100억달러로 성장이 예상된다. 

글로벌 기업도 드론사업에 적극적으로 뛰어들고 있다. 구글은 타이탄 에어로스페이스를, 페이스북은 어센타를 각각 인수하며 드론 사업에 속도를 내고 있다. 아마존과 알리바바는 드론 택배를 상용화한다. 우리나라에서는 중소 업체 위주로 시장 대응에 나서고 있는 가운데 중국산 드론이 국내에서도 시장을 넓혀가고 있다.

삼성전자는 글로벌 기업에 비해 다소 늦었지만 다양한 요소기술을 보유해 시장에 미칠 파급력이 클 것으로 예상된다. 삼성전자는 드론에 필요한 각종 센서, 반도체, 소프트웨어, 통신기술 등 요소기술은 물론이고 세계 최고 수준 제조 기술력도 보유했다. 드론은 스마트폰, 가상현실(VR) 기기 등 삼성전자가 강점을 가진 기기와 연계해 시너지 효과도 기대할 수 있다. 

IoT는 세계적 확산 트렌드에 한발 먼저 대응하고자 삼성전자가 오래전부터 준비해온 분야다. 이재용 삼성전자 부회장이 핵심으로 키우는 분야기도 하다. 삼성전자는 지난해 미국 IoT 플랫폼 업체 ‘스마트싱스’를 인수했고, 이 기술을 활용한 개방형 IoT 플랫폼 ‘아틱’을 내년 본격 선보일 예정이다. 삼성전자는 2017년까지 가전제품 70%에, 2020년에는 전 제품에 IoT를 접목하겠다는 계획도 갖고 있다.

반응형

졸려서 기분전환할겸 오랜만에 저녁운동을 8시쯤 다시 책을 읽는데 졸려서 11시까지 자버렸다.


Aㅏ... 고등학교때 이후 오랜만에 드는 죄책감이다.


와서 블로그의 레이아웃좀 바꾸고 드론 시뮬레이션을 위한 기본적 준비를 끝내려고 한다.



몇일동안 여러가지 시행착오를 걸쳤다.


MAVproxy그리고 Cygwin을 이용하여 기본 세팅을 끝냇고 이제 Mission Planner와 UDP로 연결하여 이친구의 자세, 고도, Arm/Disarm 등을 할 수 있게끔 해볼까 한다.


console에서는 'param set ARMING_CHECK 0'를 입력해야 뭐가 먹힌다. 그렇지 않으면 계속 DISARM상태이기 때문에 아무런 명령어도 듣질 않는다. 저걸 안하면 계기판에 "Mavproxy RC not calibrated"라고 뜬다.

하드웨어 적으로 설명하자면 드론한테 직접 1차적인 Arm을 거는거다


기본적으로 이건 드론을 컨트롤러(나는 TARANIS의 OPENTX를 쓴다)나 조이스틱으로 하는게 아니고 키보드로 명령하는 식이다.

예를 들면 "arm throttle"은 arm을 걸어라라는 의미이고 "takeoff 40"은 40m 높이로 상승해라이다.


장황한 글보다 한장의 사진이 더 이해하기 쉬울것이다.


왼쪽 화면 3개의 창이 기본적으로 Console로 컨트롤할때 필요한거고 오른쪽에 Mission Planner는 기체의 자세라던지 높이 등을 좀더 쉽게 볼 수 있기 때문에 도움이 많이 된다. 물론 Mission Planner에서도 컨트롤이 가능하여 서로 통신이 되는걸 볼 수 있었다.


위 명령어는 기본이다.

Arm을 걸고, 40미터를 상승한후, Circle을 그리는식이다. 계속 돌기 때문에 계기판을 보면 왼쪽으로 치우처진것을 볼 수 있다.


다음엔 home location을 서울대학교나 뭐 서울등지로 옮겨야겠다... 라고 하려다가 지금한다.


cygwin폴더에 location.txt에서 좌표와, 고도, 드론의 방향을 설정해주고 cygwin 콘솔에서 sim_vehicle.sh -j4 -L SNU --console --map

밑줄친 부분만 넣어주면 된다.

(참고로 location.txt를 보면 GLEN=49어쩌고,-123어쩌고,20,260이라고 써있는데 뒤의 파라미터들이 시작고도, 그리고 heading in degree이다.)


나는 서울대학교의 위치를 SNU의 변수로 저장해서 저렇게 불러온거다.

미션플래너와 같이보면





PS: 오늘 드론 띄우다가 나무에 걸림 .. ㅜ_ㅜ

프롭이 깨짐.. 처참하다






반응형

드론이나 오픈소스를 이용하는 드론컨트롤에 있어서는 나는 절대 아는것이 많지 않다.


해외의 선진 기술을 보고 따라하는 정도이기 때문에 "지도위를 나는" 카테고리는 다른 카테고리와는 다르게 헛소리가 많을 것이며 공부하면서 느끼는 자잘한 잡소리도 섞여 있을것같다.


어찌되었건 Git Hub diydrones에 나와 같은 증상을 겪고 있는 친구들이 매우 많았다.

관리자나 고수들의 답변은 하나같이 'direction을 따라하면 문제없다' 였다. (참고, https://github.com/diydrones/ardupilot-wiki-issue-tracker/issues/229)

심지어 내 질문은 금세 closed 되었다.


노트북에 설치한것을 지우고 내가 사용하고 있는 다른 PC에 재설치를 시도할 예정이다. 이번엔 Direction을 차근차근 잘 읽어가면서 해볼 예정이다.


된다!


내가 아마 잘못설정한것은

Cygwin 셋업할때 "SKIP"을 한번만 눌러서 설치했는데 두세번 누른것도 있고 해서 생긴 오류였나보다.

Cygwin Installer: Select Package Dialog]


그런데..

sim_vehicle.sh -j4 --map

이 코드가 안먹힌다.

command not found.



Cygwin will not be able to find sim_vehicle.sh if you omit this step. This will be reported as a “command not found” error when you try and build: sim_vehicle.sh -j4 --map


omit this step... 즉,

export PATH=$PATH:$HOME/ardupilot/Tools/autotest

이게 뭔가 잘못됬다고 얘기를 하고 있다.

난 저 step을 빼먹은적이 없는데 .. 


여기 이렇게 떡하니 있는데.. 왜



여기저기 검색결과 조나단이.. 코드를 알려줬다.



적용결과 된다. 나 뿐만 아니라 굉장히 많은 사람들이 최근까지도 어려움을 겪고 있었다. (참고, http://diydrones.com/forum/topics/sitl-sim-vehicle-sh-command-not-found-on-cygwin)


조나단의 조언대로 실행하면

된다!


방화벽 허용을 해주고

코드를 자세히 봤더니

"Window access not found, logging to /tmp/ardupilot.log

Unable to start 'C:\Program Files (x86)\MAVProxy\mavproxy.exe': The specified file was not found."

라는게 있다.

아.. 깊은 빡침


내가 설치한 PC는 윈 32비트로 Program Files (x86)이 존재하고 있지 않다. 근데 이녀석이 Default로 Program Files(x86)이라고 적어놧다. 이 때문에 발생한 문제이다.


MAVProxy를위해 MAVProxy만 따로 program files (x86)이란 폴더를 만들고 그안에 다시 설치했다..

32비트인 내컴퓨터의 Program Files (x86)는 순전히 MAVProxy를 위한것이다..


된다!


이제 자야겠다.


요새 드론관련해서는 업무 및 연구시간 이외에 시간을 이용한다. (주로 자기전이다)

그래서 띄엄 띄엄 하는부분이 있는것을 감안해 주길 바란다.


내일 또 써보자.

반응형

드론은 비와 눈에 취약하다.

근래 비가 계속오고 이번주말도 비가 올 예정이다.

아, 실험해야하는데 아무것도 못한다.


초등학교때 RC헬기를 시뮬레이션으로 연습한적 있었다.

드론을 위한 시뮬레이션도 분명있을것이다.

왜냐하면 BOEING 747시뮬레이션 '게임'도 있기 때문이다 (참고: flight simulator)


중딩때 비행기를 띄울려고 매뉴얼을 공부하려고했었는데

그당시 영어가 안되서 포기했었고, 엄청난 두깨의 메뉴얼에 압도당해서 포기했다.



각설하고
Cygwin 설치가 제일 힘들었음


패키지 다 깔고


export PATH=$PATH:$HOME/ardupilot/Tools/autotest

이 명령어를 넣는건데 그냥 nodepad를 이용해서 .bashrc 의 맨 마지막에 넣는건지.. 일단 그리 했음.

그리고 Cygwin Terminal에서


git clone git://github.com/diydrones/ardupilot.git

해서 다운받았다.

정상적으로 받아지는것 보아하니, notepad이용해서 그냥 마지막줄에 넣는게 맞았는듯.



인터넷이 너무 느리다. (근래 기숙사 인터넷이 많이 느려졌다)


Clone이 다 되면, 터미널에서 디렉토리를 바꾼후 뭘 실행해야하는데 계속 실패한다..

cd ~/ardupilot/ArduCopter
make sitl -j4

이걸 때렸는데 왜 안될까. (이름지우느라 고생했다)




일단 새벽3시니 ... 잠시 쉬었다가 오류를 찾아보자.






Drone Developer에서 참고하고 내가 시도해본 내용을 정리하였다.

http://dev.ardupilot.com/wiki/sitl-native-on-windows/

반응형

+ Recent posts