Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- textfield
- Coroutine
- MiTweet
- relay
- 프로그래머스
- Coroutines
- 암호학
- livedata
- AWS
- GitHub
- Compose
- 쿠링
- 코루틴
- TEST
- activity
- androidStudio
- Rxjava
- MyVoca
- Python
- 코드포스
- 백준
- boj
- architecture
- android
- pandas
- Gradle
- Hilt
- ProGuard
- Codeforces
- Kotlin
Archives
- Today
- Total
목록Numpy (1)
이동식 저장소
Data Cleansing
오늘은 새로운 걸 배우는 것보다 생각을 하는 시간이 될 겁니다. 마치 이 블로그 주소처럼 말입니다. 데이터 분석의 첫 번째 과정은 데이터를 얻는 것으로부터 시작됩니다. 물론 우리의 예측 불가능한 세상에서 내가 원하는 대로 데이터를 얻을 수 있다는 보장은 없습니다. 예를 들어 내 방의 온도를 10분 간격으로 측정하는데, 데이터가 한두 개 정도 빠질 수도 있고, 이것이 전혀 이상한 일이 아니라는 것이죠. 물론 이러한 경우 말고도 데이터에 관한 다양한 이슈가 있지만, 어쨌든 raw data 그 자체로 데이터를 분석하기란 참 어렵습니다. 그래서 우리는 데이터를 가공해야 합니다. 데이터 가공에 대한 몇 가지 이슈를 소개하자면 다음과 같습니다. - 특정 데이터의 범위가 매우 커서, y값에 미치는 영향이 다른 변수보..
Secondary/Python
2020. 1. 15. 15:24