본문 바로가기

python

(170)
ESP8266에서 upycraft를 이용한 MicroPython 사용하기 2018. 8. 1. 08:00 처음 ESP8266을 만나서는 그저 인터넷에 연결만 하는 것으로도 재미있었습니다. 처음 시도했던 것이 아두이노에서 인터넷을 연결하기 위해 ESP8266을 사용했던 것입니다. 그리고, 난 후 Blynk라는 앱을 통해 ESP8266을 이용해서 인터넷에 연결된 아두이노를 휴대폰에서 동작하는 이야기도 했었습니다. 그러다가 아예 ESP8266으로 아두이노 UNO 호환보드로 만들어진 WEMOS D1 보드도 한 번 테스트를 해 보았습니다. 그리고 또 잠시 잊고 있다가, 요즘 새로운 관심을 가지는 분야가 있는데, 다시 ESP8266과 접목해 보았습니다. 뭐 언제나 그렇듯... 그냥 그저그런 개봉기 같은 이야기입니다.^^응? 뭘까요? ㅎㅎ ESP8266이 탑재된 아두이노 호환보드인 WEMOD D1 mini 보드입니다. ..
우리나라 지도그리는 모듈 배포 - 인구소멸위기지역, 여성인구비율 등등 2018. 7. 4. 08:00 아주 예전에 혜식님의 블로그를 참조로 우리나라 지도 그리기를 해본 적이 있는데요. 그리고 이 방법을 이용해서 우리나라 인구 소멸 위기 지역도 시각화를 했구요. 문재인 대통령님이 당선되던 19대 대선결과를 분석하던 글에서도 이용했었죠. 그리고 이 방법은 최근 제가 집필한 파이썬으로 데이터 주무르기라는 책에서도 활용을 했었죠. 그리고 또 제가 토요일마다 진행하는 파이썬을 활용한 데이터 분석 입문이라는 수업에서도 역시 다루었습니다. 정확하게는 수업에서 사용했었죠. 수업의 난이도 조절을 위해 이제는 다루지 않지만 말이죠^^. 그래도 애써 정리했던 내용인데 사용하지 않게 되어서 살짝 블로그에 기록을 남겨봅니다.^^. 일단, 이 글에서는...라는 파일을 다운로드 받으셔서 지도를 그려서 테스트할 소스코드랑 같은 폴더..
결정트리를 이용한 타이타닉 생존자 예측 2018. 7. 2. 08:00 타이타닉 생존자 예측이라는 주재를 가지고 신경망으로 분류를 했던 적이 있습니다. 당시엔 Keras를 사용했는데요. 이번에는 결정트리 Decision Tree 기법을 이용하려고 합니다. 그리고 사이킷런 Scikit Learn을 이용할 거구요^^ 먼저 데이터는 이전에 했던 [Keras] 타이타닉 생존자 예측에서 사용한 엑셀로된 데이터 입니다. import pandas as pd import numpy as np import matplotlib.pyplot as plt %matplotlib inline raw_data = pd.read_excel('titanic.xls') raw_data.info() 필요한 모듈과 데이터를 읽었습니다.데이터가 1300개 정도로 보이지만, 중요 데이터인 age가 null이 있어..
[SKLearn] 다변수 입력을 가지는 회귀 문제에 대한, Scikit-learn 선형회귀와 kNN 회귀 문제 2018. 6. 20. 08:00 텐서플로우를 처음 공부하면서 선형회귀의 예제로 혈중 지방 함량이라는 데이터를 인터넷에서 구해서(^^) 텐서플로우로 신경망을 이용하여 다변수 입력을 가지는 선형회귀 문제를 예제로 다룬적이 있는데요. 그리고 나서 또 동일 데이터를 이용해서 Keras를 공부하면서 케라스를 이용한 다변수 입력 선형 문제를 풀었었죠. 그리고 나서 이 문제는 잊고 있다가, 최근 핸드온 머신러닝이라는 책을 읽게 되었는데요. 정말 좋네요 이 책^^ 아무튼 그러다가, 제가 블로그에서 Scikit-learn을 이용한 학습을 한 적이 없다는 것을 문득 알고는 슬쩍 글 하나 남기는 것입니다.^^. 데이터도 이전에 다룬 것이고, 문제의 해법은 단지 선형회귀를 다룰 뿐인데.. 그러니까.. 그냥 블로그에 글 많이 쓰기 이외의 목적은 없어 보입니다..
Naver 검색 API 사용하기 2018. 6. 18. 08:00 최근 재미있었던 Naver 얼굴인식 API 사용해보기를 했는데요. 그 여세를 몰아 카카오 얼굴인식 API도 사용해 봤습니다.^^ 이번에는 네이버의 검색 API를 사용해 보도록 하겠습니다.위의 네이버 개발자 페이지로 갑니다. 아.. 클로바 음성 인식 합성 API도 한 번 사용해 봐야할텐데요^^거기서... 애플리케이션 등록을 해주면 됩니다.^^ 그리고 발급되는 위 그림의 ID와 Secret을 받아둡니다.살짤 서비스 API의 검색을 매뉴로 가서.. 위 그림에서 API 이용 신청을 해도 아까의 ID와 secret을 받을 수 있습니다. 그리고 개발 가이드 보기로 갑니다.대표적인 언어로 예제를 준비해 주었기 때문에 큰 어려움없이 접근할 수 있습니다. 저야 뭐.. Python이죠^^블로그 검색 결과를 얻고싶어서 클릭..
네이버 얼굴 인식 API 사용해보기 - 유명인 인식, 얼굴 인식 2018. 6. 7. 08:00 요즘 이미지를 가지고 노는데 푹 빠져 있습니다. 또 요즘은 진로에 대해서도 고민 중이랍니다. 뭔가 좀 더 아름다운 미래를 꿈꾸고 싶기도 하구요^^.뭐 아무튼 그런 와중에 최근 저는 OpenCV를 활용한 몇몇 학습을 진행했었는데요. 그 중에는 OpenCV를 이용한 얼굴인식도 있었고, CNN에서 학습된 모델을 활용한 필기 숫자 인식과 같은 것도 있었지요. 뭐 그리고 그 다음 단계를 넘어가려고 하다가~~~ 잠시 문득 생각나서 뒤져봤다니, 역시나 네이버가 얼굴 인식관련 서비스를 하고 있네요^^ 또 안해볼 수 없죠^^ 네이버는 CFR API라는 이름으로 서비스를 하고 있습니다. Clova Face Recognition API입니다. 네이버의 CFR API 가이드를 참조하시면 더더욱 안정적으로 서비스를 이요하실 수..
아나콘다 Anaconda에서 가상환경에 텐서플로우 설치 2018. 6. 1. 08:00 아주 예전에 텐서플로우 설치에 관한 글[바로가기]을 올렸는데요. 당시에 사용한 방법이 아나콘다에서 가상환경을 만들어서 진행하는 것이었습니다. 뭐 가상환경 이런거 안할 거면 그냥 pip로 설치해도 되구요^^. 그러나 텐서플로우는 공부하는 교재 혹은 자료의 버전에 따라 조금씩 사용법이 달라질 수 있어서 가상환경으로 버전관리를 하는 것이 꽤 중요합니다. 오늘은 그 때 이야기를 좀 더 보강하는 것입니다.먼저 conda create 명령으로 이름을 py36_tf14로 해서 python 3.6버전 텐서플로우 1.4버전을 깔도록 합니다. python 옵션에 python 3.6이라고 적어 주었습니다.쭈욱~ 진행해 주면 됩니다.이제.. conda env list 명령으로 확인해보면.. 설정한 이름으로 잘 ~~~ 만들어졌..
Pandas 데이터프레임에서 컬럼값을 행방향 기준으로 정렬한 순위 만들기 argmax, idxmax, argsort 2018. 5. 30. 08:00 오늘은 누구나 한 번쯤 Pandas 데이터 프레임으로 작업을 하다가 필요하게 되는 순간이 오는~^^ 그런 일이 참 많지만~ 그 중에 하나를 소개하려고 합니다. 즉, 이렇게 구성된 표가 있는데... 우측 빈칸은 제일 큰 값을 가지는 컬럼의 값부터 순차적으로 입력하는 거죠.이런 결과가 나오게 하고 싶은 겁니다.^^ 먼저.. 최대값을 하나만 찾는 거라면 꽤 간단합니다.연습용 데이터 하나 만들고~바로 pandas의 idxmax()를 이용하면 됩니다. (이전 버전에서는 argmax()였습니다.) 컬럼 '신발'이 최대인 행의 값을 보여주고...이렇게 하면 1순위라는 컬럼을 만들고 각 행방향 최대값을 넣을 수 있습니다.^^처음 이야기한 것 처럼 아예 순위별로 다 입력해 두고 싶다면~^^ 다시 데이터를 만들고...먼저..

반응형