Python 36

SK networks AI Camp - AWS + MySQL

이전에 만들었던 걸 다 지워주겠습니다.1. Instance    ○ Instance state에 Terminate instance 클릭2. security 그룹(default는 삭제하지 말기)    ○ Delete security groups3. key-pair 삭제    ○ Delete 하기DBeaver를 사용하여 aws와 MySQL과 연결 1. AWS에서 DB 생성    ○ RDS(Relation Database System)로 접속    ○ Databases 클릭 → Create Database        ● Easy로 하면 외부에서 접근이 불가(진행의 편의상 직접 접속이 가능한 Standard 사용)        ● MySql 선택 & 버전 선택 가능(진행은 default인 8.0.35 사용) ..

Networks/aws 2024.08.13

SK networks AI Camp - Toy Project 크롤링 코드 리뷰

현재 코드를 짜서 화면에 구현하는 것까지 완료하였습니다. 코드를 리뷰하면서 지금까지 진행한 걸 다시 적어보면서 코드를 다시 한번 공부해 보는 시간을 가지겠습니다.(* 크롤링하다가 오류가 발생하여 1달을 주기로 끊어서 진행함)(* 달이 바뀔 때마다 변경할 사항   : 구현 부분의 첫 번째 줄 숫자, 5번째 push_2024_game에서의 두 번째 인자, json 저장 시 파일 이름)(* 2023.01 ~ 2024.07까지 5,9,10,11,12월은 경기 없음)(* 2023년을 진행할 경우 go_to_2024의 7번째 부분에 XPath를 아래 코드로만 변경) 규칙으로 보아 현재 월이 마지막 div가 1이고 연도가 줄어들수록 1이 증가하는 것으로 보임# 2023년 선택 XPATH"/html/body/div[1..

Networks/Project 2024.08.10

SK networks AI Camp - Django & user 실습

[기본 프로젝트 틀 만들기]* 폴더명 : dev/django/django_user2024.08.06 - [Networks/Django] - SK networks AI Camp - Django와 MySQL 연결 SK networks AI Camp - Django와 MySQL 연결○ DB생성CMD(| Powershell)에 아래 명령어 입력* mysql 폴더에 아래 파일 있어야함cd ../../dev/mysql ○ 명령어로 docker-compose.yml 실행docker-compose up -d ○ DBeaver에 연결localhost에서 urstory 계정 생성 → test connjoowon582.tistory.com (+ 추가)더보기todolist 1. model.pyfrom django.db imp..

Networks/Django 2024.08.08

SK networks AI Camp - Django 실습

2024.08.06 - [Networks/Django] - SK networks AI Camp - Django와 MySQL 연결 위 내용에서 배웠던 걸 토대로 새로운 실습아래 설명 전 해야 할 일 전체 정리1. html 파일 수정(보여지는 화면)2. model.py 수정(Class; todo_name, 상태 정의)3. views.py 수정(def ; 기능 정의[조회&생성, 수정, 삭제])4. urls.py 수정( url 경로 적기)○ html 파일 수정 [templates/todolist/index.html]    ● 만약 messages가 있으면 h4로 색깔은 #b22222로 message를 출력    ●  form에 action(attr)이 없음 = 현재 접속한 URL로 전달한다는 의미    ● "E..

Networks/Django 2024.08.06

SK networks AI Camp - Django(admin)

extention 설치(SQLite) ctrl shift p →  sqlite → open  database → SQLite Explorer → db.sqlite3 → 자동 테이블 생성terminal → python manage.py createsuperuser ○ id : admin ○ e-mail : admin@admin.com ○ pw : 1234 -> y 누르기* super user = 1(true) runserver (*default를 지정하지 않아서 그냥 들어가면 오류 메시지 나옴): http://127.0.0.1:8000/admin →  ID/PW 입력 → 관리자 페이지로 이동됨admin page 역할: ORM 연동되어 있는 테이블 데이터를 조회/수정/삭제 등 관리를 가능 user 추가 ○ ..

Networks/Django 2024.08.06

SK networks AI Camp - Toy Project

SK networks AI Camp에서 교육을 들으면서 배운 내용을 기반으로 Toy Project를 하기로 결정하였습니다.그래서 틀을 크게 정했습니다.대주제  ○ 스포츠 승부 예측 & 분석  ○ 소주제 : League of Legend 데이터를 분석하여 AI 기반으로 승률을 예측하는 프로그램 요구사항(기능)  ○ 경기 분석 정보  ○ 선수 분석 정보  ○ 팀 분석  ○ 승률 계산 수집 데이터  ○ 3시즌 간 팀별 경기 전적  ○ 선수 개인 스펙      ● 챔피언별 승률   ○ 리그 메타      ● 챔피언 픽률      ● 챔피언 벤률      ● 아이템 선택률   ○ 팀 별 정보      ●  선수 정보       ●  선발 정보      ●  선수별 시너지      ●  선수 이적 정보    이러한..

Networks/Project 2024.08.02

SK networks AI Camp - mini project(2)

오늘은 작성했던 크롤링 코드들을 종합하여 모듈화 하는 작업을 수행했습니다2024.07.24 - [컴퓨터 공학/Networks] - SK networks AI Camp - mini project SK networks AI Camp - mini project첫 번째 프로젝트로 전국 자동차 등록 현황 및 기업 FAQ 조회 시스템을 만드는 것을 해보았습니다.2주라는 과정에서 빠르게 진도를 나가면서 뭔가 후다닥 지나간 것 같네요. 1. 전국 자동차 등록joowon582.tistory.com .모듈화를 통하여 직접 돌리는 코드 부분이 확실하게 줄어든 것을 확인 가능했습니다.완전하게 완성되지는 않아서(프론트엔드) tree부분이 부족하지만 최종본은 project 카테고리에 올릴 수 있도록 하겠습니다.아래는 VSCode..

Networks/Project 2024.07.26

SK networks AI Camp - mini project

첫 번째 프로젝트로 전국 자동차 등록 현황 및 기업 FAQ 조회 시스템을 만드는 것을 해보았습니다.2주라는 과정에서 빠르게 진도를 나가면서 뭔가 후다닥 지나간 것 같네요. 1. 전국 자동차 등록 현황자동차 등록현황 데이터는 아래의 링크에서 API키를 사용해 데이터를 불러왔습니다.국토교통 통계누리 (molit.go.kr) 국토교통 통계누리 stat.molit.go.kr2. 기업 FAQ네비 회사 3곳으로 카카오맵, 네이버 지도, 아틀란(네이버 대체), KT원네비에서 FAQ를 크롤링해왔습니다. 저의 경우 아틀란 FAQ 데이터 크롤링과 데이터 프레임화, DB와 연결하는 역할을 담당하였습니다.○ 크롤링 할 때 사용 : requests와 BeautifulSoup2024.07.22 - [컴퓨터 공학/Networks]..

Networks/Project 2024.07.25

SK networks AI Camp - Web_streamlit

이번에는 Streamlit에 관하여 알아보겠습니다.너무 쉽고 간편하고 이게 왜 돼?라는 말이 그냥 나옵니다. Streamlit○ 데이터 사이언티스트, 엔지니어, 분석가들이 Python으로 데이터 앱을 쉽게 만들 수 있도록 돕는   오픈 소스 앱 프레임워크○ 장점    ● 간편성 : 복잡한 프런트엔드 지식 없이 웹 앱 제작 가능    ● 반응형 : 자동으로 업데이트되는 위젯을 제공하여 데이터와 시각화의 상호작용을 쉽게 구현 가능    ● 데이터 통합 : 주요 데이터 분석 및 시각화 라이브러리와의 통합이 용이○ 단점    ● 사용용도에 따라 단순한 웹 APP을 생성하는 경우 합리적이며, 대규모 배포의 경우 다른 프레임 워크가 적합할 수 있음       따라서 용도에 따라 선택하여 활용이 필요Streamlit..

SK networks AI Camp - Crawling_Selenium

저번 시간에는 정적수집에서 사용하는 beautifulsoup에 관하여 알아봤습니다.json 형식을 받아서 저장하기 위하여 beautifulsoup를 사용하였는데요.selenium의 경우 동적 웹페이지에서 사용하기 위하여 사용합니다.이번 포스팅에서는 네이버 자동 로그인과 네이버 페이 목록 출력에 관한 크롤링을 진행할 것입니다.2024.07.22 - [컴퓨터 공학/Networks] - SK networks AI Camp - Crawling SK networks AI Camp - CrawlingWeb Crawling vs Web Scraping○ Wep Scraping : 웹 사이트 상에서 원하는 정보를 추출하는 방법○ Wep Crawling : 웹 크롤러가 정해진 규칙에 따라 복수 개의 웹 페이지를 탐색하는..