전체 글99 LG엔솔 LG에너지솔루션 라이프케어 LG에너지솔루션 임직원 라이프케어몰 링크입니다. https://lgensol.lglifecare.com/auth/login LG에너지솔루션 라이프케어 일상이 복지다 되다! Data와 AI로 맞춤형 서비스를 제공하는 LG라이프케어 복지몰 lgensol.lglifecare.com 2023. 11. 22. 22개월 아기와 전주동물원 방문기 날씨 좋은 봄날에 전주동물원 방문! 입장권도 5세미만인, 22개월인 아기는 무료고 성인들도 저렴한 가격 3000원이면 입장 가능해요. 조경과 놀이기구, 동물들이 다양해서 좋아요^^ https://youtu.be/aI0IoWiN7B4 2022. 5. 24. 머신러닝 분류 - 정확도(accuracy), 정밀도(precision), 재현율(recall) 정확도(accuracy), 정밀도(precision), 재현율(recall) 이번 실습에서는 간단한 분류 결과 확인 및 비교를 통해 분류 알고리즘 평가 지표인 정확도, 정밀도, 재현율 결과를 직접 계산해보겠습니다. 실습 10명의 친구들이 모여서 ‘마피아 게임’을 진행하려고 합니다. 게임의 룰은 마피아의 수가 시민 수보다 적어야 하며, 숫자는 정해지지 않았기 때문에 마피아의 수를 생각하고 정확히 마피아를 찾아서 없애야 게임에서 승리할 수 있습니다. 추리를 통해 예측된 결과와 실제 값을 비교하여 혼동행렬을 출력해보고, 결과를 분석해 보겠습니다. 실행 버튼을 클릭하여 마피아(mafia)와 시민(not mafia)으로 분류된 혼동 행렬을 확인합니다. 실행 결과값을 토대로 마피아를 제대로 분석했는지에 대한 a.. 2022. 5. 24. 머신러닝 분류 - 혼동 행렬(Confusion matrix) 혼동 행렬(Confusion matrix) 혼동 행렬(Confusion matrix)은 분류 문제에서 모델을 학습시킨 뒤, 모델에서 데이터의 X값을 집어넣어 얻은 예상되는 y값과, 실제 데이터의 y값을 비교하여 정확히 분류 되었는지 확인하는 메트릭(metric)이라고 할 수 있습니다. 위 표가 바로 혼동 행렬이며, 각 표에 속한 값은 다음을 의미합니다. True Positive (TP) : 실제 값은 Positive, 예측된 값도 Positive. False Positive (FP) : 실제 값은 Negative, 예측된 값은 Positive. False Negative (FN) : 실제 값은 Positive, 예측된 값은 Negative. True Negative (TN) : 실제 값은 Negative.. 2022. 5. 24. 머신러닝 분류 - 사이킷런을 활용한 나이브 베이즈 분류 사이킷런을 활용한 나이브 베이즈 분류 이전 실습에서는 메일 내에서 스팸 및 정상 메일을 분류할 때, X = ‘확인’ 키워드 유무(O or X) Y = 메일 결과 (스팸 or 정상) 로, 입력값 X의 개수가 1개였습니다. 하지만, 만약 이메일에서 ‘확인’ 키워드 말고도 ‘.exe 첨부파일’을 보냈는지, 안보냈는지 혹은 메일 제목에 대괄호가 쓰였는지/안쓰였는지 등의 다양한 입력값이 추가되어 스팸메일을 분류한다면, 문제가 좀 더 복잡해 질 것 같습니다. 이러한 복잡한 문제 해결을 위하여 사이킷런에는 나이브 베이즈 분류 모델을 구현하여, 모듈 호출을 통해 간단히 나이브 베이즈 분류를 사용할 수 있도록 하였습니다. 이번 실습에서는 Wine 데이터를 활용하여 나이브 베이즈 분류 방법 중 하나인 가우시안 나이브 베이.. 2022. 5. 24. 머신러닝 분류 - 나이브 베이즈 분류 베이즈 정리로 나이브 베이즈 분류 구현하기 나이브 베이즈 분류는 데이터의 확률적 속성을 가지고 클래스를 판단하는, 꽤 높은 성능을 가지는 머신러닝 알고리즘입니다. 이를 이해하기 위해서 Bayes’ Theorem에 친숙해 질 필요가 있습니다. 간단한 나이브 베이즈 분류 구현을 통해 베이즈 정리에 대해 이해해보도록 하겠습니다. data set 내에서 X와 Y의 빈도수를 활용하여 연산에 필요한 각각의 확률값을 계산 할 수 있습니다. 엘리스의 이메일을 한 번 들여다 보면서 Bayes’ theorem을 이해해 볼까요? 엘리스의 이메일은 다음과 같은 텍스트 목록을 가지고 있습니다. 타입텍스트 Spam “(광고) XXX 지금 확인 해보세요.” 첨부파일 : exe Ham “[긴급]엘리스님, 확인 부탁드립니다.” 첨부파.. 2022. 5. 24. 머신러닝 분류 - SVM(Support Vector Machine) SVM(Support Vector Machine) 서포트 벡터 머신은 높은 성능을 보여주는 대표적인 분류 알고리즘입니다. 특히 이진 분류를 위해 주로 사용되는 알고리즘으로, 각 클래스의 가장 외곽의 데이터들 즉, 서포트 벡터들이 가장 멀리 떨어지도록 합니다. 이번 실습에서는 0과 1로 분류되어 있는 데이터 셋에서, SVM을 사용하여 데이터가 올바르게 분류되는지 확인해보겠습니다. SVM을 위한 사이킷런 함수/라이브러리 from sklearn.svm import SVC : SVM 모델을 불러옵니다. SVC(): SVM 모델을 정의합니다. [Model].fit(x, y): (x, y) 데이터셋에 대해서 모델을 학습시킵니다. [Model].predict(x): x 데이터를 바탕으로 예측되는 값을 출력합니다. T.. 2022. 5. 24. 머신러닝 Decision tree - 앙상블(Ensemble) 기법 - Bagging 앙상블(Ensemble) 기법 - Bagging 이번 실습에서는 Bagging을 사용한 분류기(BaggingClassifier)를 구현하는 방법을 알아보도록 하겠습니다. 배깅 (Bagging) 배깅(Bagging)은 여러 분류 모델을 사용했던 Voting과 달리 동일한 분류 모델만을 사용해야 합니다. 사이킷런에 구현되어 있는 BaggingClassifier를 사용해 동일한 유방암 데이터 셋을 학습, 예측해보고 단일 의사결정 나무 모델과의 결과를 비교해보도록 하겠습니다. BaggingClassifier를 위한 사이킷런 함수/라이브러리 from sklearn.ensemble import BaggingClassifier : 사이킷런에 구현되어 있는 BaggingClassifier를 불러옵니다. BaggingC.. 2022. 5. 24. 머신러닝 Decision tree - 앙상블(Ensemble) 기법 - Voting 앙상블(Ensemble) 기법 - Voting 이번 실습에서는 다양한 앙상블 기법 중 Voting을 사용한 분류기(VotingClassifier)를 구현하는 방법을 알아보도록 하겠습니다. Voting Voting은 의미 그대로 투표를 통해 값을 결정하는 것입니다. Voting의 종류에는 Hard voting과 Soft voting이 있습니다. Hard Voting : 다수의 분류기가 예측한 값을 최종 값으로 선택 Soft Voting : 각 레이블 별로 예측 확률을 낸 후 평균을 내어 최종 값으로 선택 일반적으로 Soft voting이 성능이 더 좋아 더 많이 사용됩니다. VotingClassifier를 위한 사이킷런 함수/라이브러리 from sklearn.ensemble import VotingClas.. 2022. 5. 24. 이전 1 2 3 4 ··· 11 다음