스파르타 코딩 웹개발 종합반57 3-9 DB 에 대하여.. DB 를 쓰는 이유: 데이터를 잘 찾기위해서. 서점에서 책을 찾을때 섹션-출판사-책제목 순서대로 찾는것 처럼 DB에도 index라는 순서로 데이터들이 정렬되어 있음 DB 종류: SQL 행과 열의 생김새가 정해진 엑셀에 데이터를 저장하는것과 같음. 정형화 되어있기 때문에 중간에 새로운 데이터를 추가 하기는 어렵지만 데이터의 일관성이나 분석에 용이함 MS-SQL, My-SQL 등등... No-SQL 딕셔너리 형대로 데이터를 저장해두는 DB. 자유로운 형태의 데이터 적재에 유리하지만 일관성이 부족할 수 있다. Mongo DB Atlas *No-SQL (Not Only SQL) ✔️ 최근에는 DB를 백업해야 하거나 모니터링하기 용이하다는 장점이 있는 클라우드 형태로 제공해 주는 곳이 많다. 2022. 5. 16. 3-8 웹스크래핑 연습 웹스크래핑으로 (순위 제목 별점) 출력 웹사이트 : 결과 : 완성코드: import requests from bs4 import BeautifulSoup headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers) soup = BeautifulSoup(data.text, 'html.parser') #old_cont.. 2022. 5. 16. 3-7 웹스크래핑 (크롤링)기초_ beautifulsoup / select & select_one 웹크롤링/스크래핑 이 뭔지 감이 너무 안와서, 인터넷 뒤져봄... 내가 이해한것: 코딩하기 위해 필요한 데이터를 수집해서 (크롤링) 추출해 가져오는것(스크래핑). 뉴스기사 분석 / 음악 & 영화 차트 순위 자료 등등을 위해 사용 ----나중에 정확한 개념을 알게 되면 다시 수정하러 와야지...ㅎ 사용한 웹크롤링 모듈: BeautifulSoup ▶ 기본 세팅 코드 import requests from bs4 import BeautifulSoup headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data .. 2022. 5. 16. 3-6 패키지 사용해보기_ Requests 라이브러리 + list/dict/함수/if/for문 Requests 라이브러리 기본 코드 import requests # requests 라이브러리 설치 필요 r = requests.get('URL') rjson = r.json() # 라이브러리들 마다 정리된 방식이 다름 응용 import requests r = requests.get('http://spartacodingclub.shop/sparta_api/seoulair') rjson = r.json() gus = rjson['RealtimeCityAir']['row'] # API 에서 row를 'gus'라는 이름으로 불러옴 for gu in gus: # row == gu if gu['IDEX_MVL'] < 60: print (gu['MSRSTE_NM'], gu['IDEX_MVL']) 👉파이썬에서는 들.. 2022. 5. 16. 이전 1 ··· 3 4 5 6 7 8 9 ··· 15 다음