전체 글

전체 글

    2020.08.24~09.01 BOAZ 2차 컴퍼티션 문제점과 앞으로 방향성(overfitting 해결방안)

    (네이버 블로그 게시글을 옮겨왔다!) 이번 데이콘 스터디 2차 컴퍼티션에서 엄청 열심히했는데 처음으로 실패를 경험했다. 근데 생각해보니 지금까지 참여한 컴퍼티션에서는 오버피팅을 고려한 적이 없었던거다. 그래서 다신 이런 실수를 하지 않으려고 동아리사람들한테 코드도 달라구 하고, 하나하나 내 코드랑 비교해보면서 찾은 문제점을 기록한다! 0. 이번 컴퍼티션에서 주안점을 둔 것 - Kfold를 이용해 cv를 나눠서 for 문으로 부스팅 계열 모델링. (버스 승차량에서도 이걸로 성능 향상을 경험했기 때문) - 최대한 다양한 분류 모델을 쓰려고 노력함. (knn, gb, adaboost까지,,,,,,캐글 타이타닉 커널 참고해서 검색함) - 베이지안 최적화(튜닝할 때 요즘 많이 쓰는 방법이라고 해서 한번 해봄) -..

    [알고리즘] - 선형배열(리스트 내 해당 원소의 인덱스 반환)

    ✔ 주안점 index의 중복처리 반환(존재하는 모든 원소의 인덱스를 반환해야 했던 것) 💻 부끄러운 나의 코드 def solution(L, x): answer = [] if x in L: for i in range(len(L)): a = L[i] if x == a: if i< len(L): answer.append(L.index(a, i)) else: answer.append(L.index(a, i-1)) # 인덱스에 집착하다보니 index method를 이용할 수밖에 없었음. ... # 그 결과.. 비효율적인 코드 완성됨.. else: pass else: answer.append(-1) return answer ✔ 문제점 - 또 비슷하게 if/else 식의 코드 진행.... 으... 극혐.... - i..

    [알고리즘] - 선형배열 (정렬된 리스트에 원소 삽입하기)

    ✔ 주안점 - 원소가 기존 리스트의 원소보다 가장 크거나 가장 작은경우를 예외로 처리해야 했던 것 💻 부끄러운 내 코드 def solution(L, x): last = int(len(L)-1) for i in range(last): if int(L[i]) int(max(L)) : L.insert(int(len(L)), x) break elif x < int(min(L)): L.insert(0, x) break else: pass return L ✔ 문제점 - 단순 if와 else를 반복한 코드임. 너무 길고 불필요함...

    2020년을 마치며 - BOAZ 에서 성장한 순간들 기록✨

    2020년을 마치며 - BOAZ 에서 성장한 순간들 기록✨

    정말정말 정신없이 2020년 2학년이 끝났다! 작년 이맘때 1학년을 막 마치고, 패기있게 BOAZ 14기 리크루팅에 지원했고 운좋게 합격했었다. 물론 난 막내였다..! 그땐 머신러닝 모델이 DT와 RF밖에 없는줄 알았다ㅎㅎ,,, 그 후 1년동안 정말 많은 성장을 했는데, 비록 어렵고 힘든 순간도 많았지만 지금 돌아보면 조은 시간이었다🥰 그래서 1년동안 BOAZ에서 배운것들을 중심으로 차근차근 기록을 해보려한다. 1. 2020.01~2020.02 겨울방학 정규세션 + 스터디(멘토멘티, 기초 R) 정말 머신러닝이고 딥러닝이고 제대로 기초도 모르던 시절이다......... lambda를 처음봤고 딥러닝도 처음봤다....! 🤢 (그냥 나에겐 Titanic 데이터가 전부였는걸..) 나보다 훨씬 뛰어난 선배님들과 ..

    아이패드로 썼던 Add study 모음

    통계적머신러닝 강의를 들으며 따로 공부했던 Add Study들의 기록이다! 💕 과제가 엄청 많았지만, 과제 나올때마다 따로 공부를 더해 기록했다 (❁´◡`❁) 1. Weighted KNN & Kernel Density Function (KNN과 밀도추정) https://blog.naver.com/goodgpt/222107862105 Weighted KNN & KDE(커널밀도추정) 다은이의 컴퓨터공부 blog.naver.com 2. Synthetic Oversampling for imbalanced data(SMOTE, ADASYN) https://blog.naver.com/goodgpt/222095847248 Synthetic Oversampling for imbalanced data(SMOTE, ADA..

    지금까지 정리했던 기초 Python과 ML

    [ 네이버 블로그 게시글 모음📃💻📈 ] 지금까지 네이버블로그에 차곡차곡 정리했던 내용이다 (❁´◡`❁) 1학년이었는데 꽤 열심히했다 1. 데이터 마이닝을 위한 파이썬의 기본(주피터, 리스트, 딕셔너리, pandas, matplot, seaborn) https://blog.naver.com/goodgpt/221751823302 데이터 마이닝을 위한 파이썬의 기본(주피터, 리스트, 딕셔너리, pandas, matplot, seaborn) 주피터(Jupyter) : 데이터 분석용 파이썬 편집기(설계 + 기록 ... blog.naver.com 2. Decision Tree와 Feature Engineering, 그리고 Scikit-learn(사이킷런) https://b..