본문 바로가기

패스트캠퍼스60

패스트캠퍼스 환급챌린지 60일차 미션 (3월 31일) : 데이터 분석 Master Class 강의 후기 짧지만 길었던 환급챌린지의 마지막 날인60일차!!!  처음 환급챌린지를 도전할 땐 나에게 60일도 과하고 제발 한달이라도, 일주일만이라도 채우자 라는마음으로 시작했던 것 같다. 처음 일주일을 채우고 난 다음에는일주일을 잘 해냈다는 마음에 너무 뿌듯했다!그리고 갓생을 위해,, 이것저것 도전했더니,,정말 해야 할 일이 끝도 없이 이어지고,그 와중에 아프고,,열심히 해보려고 하는데 도움이 되지 않는 주변 상황에포기할까 하는 생각도 정말 많이 했던 것 같다. 하지만 매일매일 채워지는 나의 블로그 게시글 수와새로운 것들, 잊었던 것들을 너무 유익하게 학습할 수 있었던 강의를 통해60일을 꾸준히 달려올 수 있었던 것 같다! 앞으로 매일매일은 힘들겠지만그래도 이틀에 한 번은 꼭 작성할 것이다!!또한 사실 환급챌린지는.. 2024. 3. 31.
패스트캠퍼스 환급챌린지 59일차 미션 (3월 30일) : 데이터 분석 Master Class 강의 후기 59일차!! 오늘은 데이터를 가공하고 정제하는 데이터 전처리 과정에 이어R을 활용한 데이터 시각화를 배웠다!R을 활용한 데이터 시각화에서유용하게 사용되는 'ggplot' 라이브러리에 대해 배웠다.특히 그중 스캐터 플롯에 대하여 배웠는데어렵지 않은 문법으로 원하는대로 데이터를 다양하게 구현할 수 있다는 점이 좋았던 것 같다!     Part 4. R _ 데이터 시각화      01. 시각화 기초 1. 시각화의 목적- 데이터의 기본 속성 이해- 데이터의 숨겨진 패턴 시각적으로 확인- 데이터 대조- 커뮤니케이션 1) Anscombe's Quartet(앤스콤의 4중주): 평균, 분산, 표준편차가 동일하더라도 현저히 다른 데이터 분포를 가질 수 있음   2. ggplot2 1) ggplot2 문법- 해들리 위캠 .. 2024. 3. 30.
패스트캠퍼스 환급챌린지 58일차 미션 (3월 29일) : 데이터 분석 Master Class 강의 후기 58일차! 멀고도 멀게 느껴졌던 60일도 이틀만을 남겨두고 있다!60일 간 강의를 모두 듣고 싶었지만,, 생각보다 강의가 많았다ㅎㅎ이틀동안 남은 강의들을 꾸준히 잘 듣고이번 챌린지를 통해 잡아놓은 매일의 공부 습관을 꼭 지켜나갈 것이다! 오늘은 어제에 이어 데이터 정제에 대해 배웠다.특히 데이터 분석 전 꼭 확인해야 할결측치, 이상치를 확인하고, 처리하는 방법에 대해 배웠다. anyNA(), is.na()를 사용하여 결측치를 확인하고,drop_na(), na.omit(), replace_na()를 통해 결측치를 처리한다.이상치의 경우 통계기법이나 박스플롯을 사용하여 확인한 후,replace를 사용하여 대체하거나, 삭제하는 등의처리기법을 통해 처리한다.     Part 4. R _ 데이터 정제      0.. 2024. 3. 29.
패스트캠퍼스 환급챌린지 57일차 미션 (3월 28일) : 데이터 분석 Master Class 강의 후기 57일차! 데이터 가공을 끝내고 데이터를 정제하는 과정에 대해 배웠다! 오늘 처음 배운 것은 "tidverse" 라이브러리인데tidverse 라이브러리에는 데이터를 가공하는 dplyr,데이터를 불러올 때 사용하는 readr,데이터 시각화에 많이 사용되는 ggplot까지데이터 분석의 일련의 과정에서 쓰일 수 있는다양한 패키지들이 들어있는 라이브러리였다! 두번째로 배운 개념은 tidy 데이터였다!tidy 데이터는 앞서 배운 엑셀에서도 배운 데이터 형식이다.한 눈에 보기엔 가독성이 떨어질 수는 있지만컴퓨터를 사용한 분석에 최적화될 수 있도록 데이터 형식을 만드는 것이다.배웠던 내용이었지만 이번 강의를 통해tidy 데이터에 대한 내용을 다시 한 번 복습할 수 있었다. 또한 마지막으로 pivot_longer와 p.. 2024. 3. 28.
패스트캠퍼스 환급챌린지 56일차 미션 (3월 27일) : 데이터 분석 Master Class 강의 후기 56일차! R의 'dplyr' 라이브러리의 마지막 시간이었다!join()과 set operation을 이용한 데이터 결합, "dplyr"라이브러리의 기타 함수에 대해 배웠다.join()의 경우, 엑셀부터 SQL, 파이썬 과정에서 모두 배웠기 때문에 개념은 익숙해서 사용하는 방법만 배우면 되었는데,기준으로 삼는 컬럼을 설정하는 것만 달랐기 때문에 어렵지 않았다.데이터 결합을 하는 다른 함수도 배웠지만아무래도 데이터프레임을 결합할 때는,기준을 가지고 결합하는 경우가 많기 때문에 join()의 사용이 압도적으로 많을 것 같다!또한 set operation은 그냥 합집합, 교집합, 차집합이어서이 내용도 쉽게 할 수 있었다!또한 기타 함수들에서는 lead()와 lag와 같은 함수들을 배웠는데for문 등을 따로 사.. 2024. 3. 27.
패스트캠퍼스 환급챌린지 55일차 미션 (3월 26일) : 데이터 분석 Master Class 강의 후기 55일차! R의 'dplyr' 라이브러리의 두 번째 시간이었다!arrange(), mutate(), group_by(), summarize()를 배웠다. 이 함수들은 데이터를 정렬, 변환, 그룹화하고, 그룹별 요약 통계를 계산하는 데 사용되는데복잡한 데이터 집합을 쉽게 다루고 분석할 수 있게 도와준다.'dplyr'라이브러리는 데이터 분석 과정에서 유용하게 쓰이므로이를 통해 데이터를 효율적으로 조작하고,분석의 질을 한 단계 끌어올릴 수 있다!    Part 4. R _ 데이터 분석 기초       02. 데이터 가공 4. arrange(): 데이터 정렬 # 부서번호가 10, 40인 직원 중 id, ename열을 id 내림차순으로 적기emp %>% filter(dept_no) %in% c(10, 40) %.. 2024. 3. 26.
패스트캠퍼스 환급챌린지 54일차 미션 (3월 25일) : 데이터 분석 Master Class 강의 후기 54일차! 데이터 분석을 위한 코드를 작성할 때는효율성과 가독성 높은 코드를 작성하는 것이 중요하다.오늘 배운 Hadley Wickham이 개발한 'dplyr' 라이브러리는이러한 코드를 작성하는 데 아주 유용하다.'dplyr' 라이브러리는 데이터 처리 작업을 단순화하고,코드를 작성하는데 있어 코드의 가독성과 유지 보수성을 향상시킨다.오늘은 이러한 'dplyr'라이브러리의 첫 시간으로필터링, 열 선택과 같은 'dplyr'의 기본적 함수를 활용하는 방법에 대해 배웠다.       Part 4. R _ 데이터 분석 기초      02. 데이터 가공 1. dplyr 라이브러리: Hadley Wickham이 작성한 데이터 처리 패키지 - 매우 빠른 속도(plyr는 R로 작성되어 느림, dplyr은 c++로 작성되.. 2024. 3. 25.
패스트캠퍼스 환급챌린지 53일차 미션 (3월 24일) : 데이터 분석 Master Class 강의 후기 53일차!! 이제 챌린지의 종료까지 단 일주일만을 남겨두고 있다!얼마남지 않은 지금 할 일이 정말 너무 많아서이런 바쁜 와중에 블로그를 쓰는게 정말 힘들지만 끝까지 놓치지 않고 해나가고 싶다! 오늘 배운 내용은 우선 R에서 데이터 분석의 핵심! 데이터 프레임이다.이는 엑셀 시트와 비슷한 형태로, 각 열이 변수를 나타내고 행이 관측값을 나타낸다.read.csv() 함수를 사용해 CSV 파일을 불러오고,write.csv()로 데이터를 저장할 수 있다.오늘 배운 기본적인 데이터 조작을 통해 분석의 기초를 다지고,복잡한 데이터 분석으로 나아갈 수 있는 발판을 마련했다.R은 분석 언어의 마지막 챕터인데 이에 접어들며,배운 내용을 실제 데이터에 적용해보며 또 새로운 내용을 잘 배워가고 싶다!       Part 4.. 2024. 3. 24.
패스트캠퍼스 환급챌린지 52일차 미션 (3월 23일) : 데이터 분석 Master Class 강의 후기 52일차! 파이썬 분석을 마치고 이제 R로 분석하는 여정을 시작했다!R은 통계 및 데이터 분석에 강력한 도구이지만,사용 빈도가 낮아 잊었던 기초부터 다시 잡고자 한다.오늘 배운 내용은, 우선 변수는 데이터 값을 저장하는 데 사용되며, 또한 숫자 함수 예로는 sum(), mean() 등이 있어 수치 데이터를 쉽게 처리할 수 있다.문자 함수로는 paste()와 toupper 등이 있어 문자열을 합치거나 패턴을 바꿀 수 있다.특히 R의 강력함은 다양한 패키지에서도 나타나는데,ggplot2로 복잡한 시각화를, dplyr로 데이터 조작을 손쉽게 할 수 있다.(이 내용은 차차 다루는 것 같다!)다르긴 하지만 파이썬과 함수가 비슷한 것들도 있어쉽게 배울 수 있을 것 같다!      Part 4. R _ 기초 개념  .. 2024. 3. 23.
패스트캠퍼스 환급챌린지 51일차 미션 (3월 22일) : 데이터 분석 Master Class 강의 후기 Part 3. PYTHON _ 데이터 분석 프로젝트      04. 파이썬 데이터 분석 프로젝트 8. 뉴스기사 키워드 추출을 통한 주식 종목 이슈 분석 1) 데이터 수집 - 주식 데이터 수집import FinanceDataReader as fdrkospi = fdr.StockListing('KOSPI')kospi.head()stock_close = pd.DataFrame()for i in top3.index: temp = fdr.DataReader(top3.loc[i,'Code'], start='2022-01-01', end='2022-12-31')[['Close']].rename({'Close':top3.loc[i,'Name']}, axis=1) stock_close = pd.concat([.. 2024. 3. 22.
패스트캠퍼스 환급챌린지 50일차 미션 (3월 21일) : 데이터 분석 Master Class 강의 후기 50일차!! 와쿠와쿠      Part 3. PYTHON _ 데이터 분석 프로젝트      04. 파이썬 데이터 분석 프로젝트 7. 부동산 뉴스기사 키워드 추출을 통한 연도별 이슈 분석 1) 크롤링하기 - '부동산' 뉴스 기사 크롤링first_day = pd.date_range('2018-01-01', '2023-08-31', freq='MS').strftime('%Y.%m.%d')last_day = pd.date_range('2018-01-01', '2023-08-31', freq='M').strftime('%Y.%m.%d')date_list = list(zip(first_day, last_day))keyword = '부동산'data = pd.DataFrame()for dt in tqdm(date_li.. 2024. 3. 21.
패스트캠퍼스 환급챌린지 49일차 미션 (3월 20일) : 데이터 분석 Master Class 강의 후기 Part 3. PYTHON _ 데이터 분석 프로젝트      04. 파이썬 데이터 분석 프로젝트 6. 부동산 데이터: 최적의 자취방 구하기 4) 분석 - 여러 항목의 분포 확인하기 : 월세, 보증금, 전용면적, 연식, 역까지 최소거리for x in ['월세','보증금','전용면적(m2)','연식','역까지최소거리']: fig = px.box(data_frame = data_filtered, x=x, width=700, height=400) fig.show() - 월세, 전용면적, 연식, 지하철까지 거리를 점수화 하기data_filtered['월세_등급'] = pd.qcut(data_filtered['월세'], 5, labels=[1,2,3,4,5])data_filtered['전용면적_등급'] .. 2024. 3. 20.