본문 바로가기

Theory

(228)
[필터연재] 1차 디지털 저역/고역 통과필터 2017. 1. 5. 12:16 전 아주 예전부터 제 블로그에 필터에 관한 글을 올리고 있었습니다. 물론 단편적인 글들이었지만요. 그 중에는 실제 자이로센서와 가속도센서를 융합하는 상보필터[바로가기]를 다루기 시작했고, 그 후 MATLAB이나 Python으로 구현하는 1차 혹은 2차 필터들에 대한 글들을 올렸습니다. 물론 이전에 올린 글들이 많지만, 문득 필터들에 대한 이야기를 1차 저역/고역 통과필터, 2차 필터, Band Pass, Band Stop 필터등등에 대해 한 번 쫘~악 정리하고 싶어지더라구요. 그래서 이런 것들을 정리할 겸 필터를 대상으로 연재를 시작할까 합니다.^^ Filter [필터연재] 1차 디지털 저역/고역 통과필터 Filter [필터연재] 2차 디지털 저역/고역 통과필터 Filter [필터연재] 2차 디지털 Ba..
지리적 정보를 시각화할 때 괜찮은 Python 지도 모듈 Folium 2016. 12. 28. 08:00 이 글은 버전 0.3.0까지는 맞으며, 17년 11월 현재 최신인 0.5.0에서는 일부 에러가 납니다. TypeError: choropleth() got an unexpected keyword argument 'geo_path' 위와 같은 에러가 나타나면 버전 문제가 발생한 것이며, [바로가기]를 읽으시길 바랍니다. 얼마전에 구글의 지도 정보를 활용하는 API에 대해 이야기[바로가기]했었는데요. 이번에는 지도 정보를 시각화하는 Python의 많은 모듈중에 Folium을 소개할까 합니다. 다양한 모듈 만큼이나 다양한 기능들이 있지만 Visual 측면에서 저는 Folium이 마음에 들더라구요^^Anaconda에서는 conda install은 안되구요. 윈도우 터미널로 pip install folium 명령으..
Python Beautiful Soup으로 웹 페이지의 내용 쉽게 가져오기~ 2016. 12. 16. 08:00 오늘은 웹 페이지 내용을 쉽게 가져올 수 있는 Python 라이브러리인 Beautiful Soup을 소개할까 합니다. 아나콘다[바로가기]에서는 이미 포함되어 배포되구요. 아니어도 쉽게 설치[바로가기]할 수 있습니다. 뭐 여하튼 시작하죠~~~ 무턱대고^^아주아주 심플한 뭐 그런 페이지입니다.^^. 이 페이지의 소스를 보면 뭐~ 정말 간단하다는 것을 알 수 있죠^^간단하게 beautiful soup4를 import해서 쉽게 웹페이지를 읽었습니다. Python3부터 urlopen은 urllib.request에서 가져와야 합니다. 그리고 BeautifulSoup에서 html을 읽는 옵션중 lxml은 빠르고 간편한 옵션을 가지고 있다고 안내하고 있네요^^여기서 soup이라는 변수로 받았으니, soup.p라고 하면..
Python을 이용해서 구글에서 주식 정보 가져오기 2016. 12. 9. 07:30 Python으로 데이터를 분석하는 놀이(^^)를 하면 작은 장난감같은 뭔가를 얻을 수 있습니다. 아직은 이걸로 뭘 해야하는지 모르는 그러나 그냥 들여다보면 재미있는 것들이지요. 그중 하나로 오늘은 Python에서 주식정보를 구글을 통해 가져오는 것을 이야기할려고 합니다.^^. import pandas as pd import pandas.io.data as web from datetime import datetime import matplotlib.pyplot as plt import numpy as np import seaborn as sns import warnings warnings.simplefilter(action = "ignore", category = FutureWarning) from mat..
Python pandas에서 excel 엑셀 파일 바로 읽어 오기 2016. 11. 23. 08:00 지난번에 텍스트 파일 읽어오기[바로가기]를 했었는데요. 오늘은 엑셀파일을 읽는걸 이야기할려구요^^ 언제나 그렇듯 쉽게~~~^^ 뭐 간단한것만~~~^^위 그림처럼 있는 엑셀파일이 있다면... Python의 pandas는 정~~말 쉽게요런 설정후에~단지 read_excel이라는 명령만으로 끝납니다.^^ (포스팅 끝~~)여기서 끝내면 약간 허망하니까.. 뭐 그래프라도 그려보죠^^아~ 이렇게 원하는 컬럼(column)만 가지고오면서 index를 지정할 수도 있습니다.뭐 index를 지정 안 할수도(^^) 있지만요^^
Python pandas에서 text 혹은 csv 파일 읽기 2016. 11. 17. 08:00 뭐... Python에서 text를 읽는 다는 건.. 아주 쉬운 많은 방법이 있어보입니다만, 오늘은 pandas로 읽는 명령하나(^^)를 소개할까 합니다. pandas에서 바로 읽으면 뭐.. 당연한 이야기지만, DataFrame에서 바로 작업이 가능하니 괜찮거든요^^^^ 심플한 import 작업이지요^^요렇게 생긴 데이터 파일을 읽어볼까 합니다. 내용은 숫자로 팍팍 채워져 있네요^^명령은 아주 단순하게 하나입니다.~~~ pd.read_csv^^ 그리고 각 columns의 이름을 names로 지정해주면 됩니다. 지정된 컬럼 이름으로 데이터들이 잘 로딩되었음을 알 수 있네요^^앞부분 10개만 읽어보면~ 뭐 당연히 잘~~^^무턱대고 그냥 plot을 해보면 됩니다. 좀 이상해서 그렇지^^넵... legend의 ..
데이터 과학에서 필수 아이템 seaborn 2016. 11. 11. 09:00 일반적인 Python에서 가장 많이 사용하는 그래픽 도구는 당연히 matplotlib입니다. 오늘 소개할 아이도 matplotlib를 기본으로 합니다. 그런데.. 데이터를 다루는 초반 학습에서 아주~~~ 편리한 다양한 시각화 기능을 가지고 있습니다. 그런 다양한 몇몇 기능을 소개할까 합니다.~~~ 이름은 Seaborn^^흠 바다에서 태어났다는 뭐 그런 뜻인가요??? 아무튼~~~ Seaborn은 matplotlib를 기반으로 하는 Python visualization 라이브러리이며, attractive한 통계적 그래프를 보여줍니다.^^ (라고 첫 페이지에 써있습니다.^^) seaborn의 공식홈페이지를 방문하시면 아~~주 친절한 설명을 들을 수 있습니다.일단 딱~ 봐도 이쁘죠^^특히 seaborn은 실습용..
구글의 지도(google maps) 데이터를 사용할 준비를 하자 2016. 11. 6. 09:00 데이터 과학과 관련된 여러~ 강좌를 듣다보면 항상 마지막은 폼~나게 지도위에다가 뭔가를 작업하는 것을 볼 수 있습니다.^^. 다양한 많은 방법이 지도를 표현하기 위해 준비되어 있는데요. 이번에는 구글이 제공하는 지도 서비스를 준비하는 과정을 이야기할까 합니다.먼저.. 구글 지도 API제공 사이트로 이동하죠^^다양한 옵션을 제공하네요~~~ 물론 우리는 기본(=무료)으로 갑니다.뭐~~~시작하기^^저 많은 서비스가 존재하지만.. 일단 간편하게... 주소와 자표의 변환이 가능한 Google Maps Geocoding API를 갑니다.제~~ 위도, 경도 좌표로 지도 주소를 변환 혹은 그 반대가 된다고 하네요^^이제 키 가져오기를 선택하시면 됩니다.^^제한 사항을 설정하라는 말이 있지만, 우리는 연습단계라... 뭐..

반응형