A ship in harbor is safe, but that is not what ships are built for.

개발일지/스파르타코딩클럽_웹개발

Day05(3-1~3-13)

플리피나리 2022. 8. 5. 00:05
반응형

1. 3주차 내용

- 3주차 설치 : Python, Git bash(윈도우만)

- 3주차 배울 것 : Python, 크롤링, mongoDB

 

 

2. 파이썬 기초공부(1)

1) 변수 & 기본연산

a = 3   # 3을 a에 넣는다
b = a   # a의 값을 b에 넣는다
a = a + 1   # 기존의 a의 값에 1을 더한 후 다시 a에 넣는다

num1 = a*b   # a의 값과 b의 값을 곱해 num1에 넣는다
num2 = 99   # 99를 num2에 넣는다

#변수의 이름 마음대로 짓기 가능!

 

2) 자료형

- 숫자, 문자형

name = 'bob'   # 변수에 문자열 입력 가능
num = 12   # 변수에 숫자 입력 가능

is_number = True   # True 또는 False의 'Boolean' 형 입력 가능
# 변수에 List, Dictionary 형 입력 가능

- 리스트형 

a_list = []
a_list.append(1)   # 리스트에 값을 넣는다
a_list.append([2, 3])  # 리스트에 [2, 3]을 한 요소로 넣는다

# a_list의 내용 : [1, [2, 3]]
# a_list[1][0] 값 : 2

- Dictionary 형

a_dict = {}
a_dict = {'name': 'bob', 'age': 21}
a_dict['height'] = 178

# a_dict의 값은? {'name':'bob','age':21, 'height':178}
# a_dict['name']의 값은? 'bob'
# a_dict['age']의 값은? 21
# a_dict['height']의 값은? 178

- Dictionary 형과 List 형의 조합

people = [{'name': 'bob', 'age': 20}, {'name': 'carry', 'age': 38}]

# people[0]['name']의 값은? 'bob'
# people[1]['name']의 값은? 'carry'


person = {'name': 'john', 'age': 7}
people.appned(person)

# people의 값은? [{'name':'bob','age':20},{'name':'carry','age':38},{'name':'john','age':7}]
# people[2]['name']의 값은? 'john'

 

3) 함수

- 함수의 정의와 응용

def sum_all(a, b, c):
   return a+b+c
   
   
def mul(a, b):
   return a*b
   
result = sum_all(1, 2, 3) + mul(10, 10)

# result라는 변수의 값 = 106

 

 

3. 파이썬 기초공부(2)

1) 조건문(if/else)

def oddeven(num):  # oddeven이라는 이름의 함수를 정의한다. num을 변수로 받는다.
	if num % 2 == 0: # num을 2로 나눈 나머지가 0이면
		 return True   # True (참)을 반환한다.
	else:            # 아니면,
		 return False  # False (거짓)을 반환한다.

result = oddeven(20)
# result의 값은 무엇일까요?
def is_adult(age):
	if age > 20:
		print('성인입니다')    # 조건이 참이면 성인입니다를 출력
	else:
		print('청소년이에요')  # 조건이 거짓이면 청소년이에요를 출력

is_adult(30)
# 무엇이 출력될까요?

 

2) 반복문

- 리스트 예제

fruits = ['사과','배','배','감','수박','귤','딸기','사과','배','수박']

count = 0
for fruit in fruits:
	if fruit == '사과':
		count += 1

print(count)

# 사과의 갯수를 세어 보여줍니다.
def count_fruits(target):
	count = 0
	for fruit in fruits:
		if fruit == target:
			count += 1
	return count

subak_count = count_fruits('수박')
print(subak_count) #수박의 갯수

gam_count = count_fruits('감')
print(gam_count) #감의 갯수

- 딕셔너리 예제

people = [{'name': 'bob', 'age': 20}, 
          {'name': 'carry', 'age': 38},
          {'name': 'john', 'age': 7},
          {'name': 'smith', 'age': 17},
          {'name': 'ben', 'age': 27}]

# 모든 사람의 이름과 나이를 출력해봅시다.
for person in people:
    print(person['name'], person['age'])


# 이번엔, 반복문과 조건문을 응용한 함수를 만들어봅시다.
# 이름을 받으면, age를 리턴해주는 함수
def get_age(myname):
    for person in people:
        if person['name'] == myname:
            return person['age']
    return '해당하는 이름이 없습니다'


print(get_age('bob'))
print(get_age('kay'))

 

 

4. 파이썬 패키지 설치하기

- 패키지란 모듈을 모아 놓은 단위

- 패키지 설치 = 외부 라이브러리 설치

- 가상환경 : 프로젝트별로 패키지들을 담을 공구함

- 같은 시스템 상 다른 파이썬 응용 프로그램들의 동작에 영향을 주지 않기 위해, 파이썬 배포 패키지들을 설치하거나 업그레이드하는 것을 가능하게 하는 격리된 실행 환경

- project interpreter에서 + 버튼을 눌러 requests를 검색해 패키지 설치하기

 

 

5. 패키지 사용해보기

- requests 라이브러리 설치

- requests를 사용해 미세먼지가 60미만인 구만 찍기

import requests

# 서울시 대기 OpenAPI
r = requests.get("http://spartacodingclub.shop/sparta_api/seoulair")
rjson = r.json()

gus = rjson['RealtimeCityAir']['row']

for gu in gus: 
   if gu['IDEX_MVL'] < 60: 
      print(gu['MSRSTE_NM'], gu['IDEX_MVL'])

* 파이썬은 들여쓰기 정말 중요!!!

 

 

6. 웹스크래핑(크롤링) 기초

- 패키지 추가 설치 : bs4(beautifulsoup4)

- 크롤링 기본 세팅

import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}

# 스크래핑할 페이지 주소
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

# html을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 코딩을 통해 필요한 부분 추출
soup = BeautifulSoup(data.text, 'html.parser')

- beautifulSoup 내 select 에 미리 정의된 다른 방법

# 선택자를 사용하는 방법 (copy selector)
soup.select('태그명')
soup.select('.클래스명')
soup.select('#아이디명')

soup.select('상위태그명 > 하위태그명 > 하위태그명')
soup.select('상위태그명.클래스명 > 하위태그명.클래스명')

# 태그와 속성값으로 찾는 방법
soup.select('태그명[속성='값']')

# 한 개만 가져오고 싶은 경우
soup.select_one('위와 동일')

*또는 크롬 개발자도구에서 copy -> copy selector로 선택자 복사

- 영화 제목 가져오기

import requests
from bs4 import BeautifulSoup

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해 tr들 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
   # movie 안에 a 가 있으면,
   a_tag = movie.select_one('td.title > div > a')
   if a_tag is not None:
      # a의 text를 찍어본다.
      print(a_tag.text)

 

 

7. Quiz_웹스크래핑(크롤링) 연습

- 순위, 제목, 별점 웹스크래핑 하기

import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

movies = soup.select('#old_content > table > tbody > tr')

for movie in movies:
   a_tag = movie.select_one('td.title > div > a')
   if a_tag is not None:  # n번째 줄은 tr:nth-child(n)
      title = a_tag.text
      rank = movie.select_one('td:nth-child(1) > img')['alt']  # 첫번째 칸인 td:nth-child(1)
      star = movie.select_one('td.pont').text  # id값을 더한 td.pont
      print(rank, title, star)

*크롬 개발자도구에서 copy -> copy selector로 선택자 복사 및 확인

 

 

8. DB개괄

- DB를 사용하는 이유 : 잘 넣어두기 위해서 & 잘 찾기 위해서

- Index라는 순서로 데이터들 정렬화

- RDBMS(SQL) : 행과 열이 정해진 데이터 저장 방식, 중간에 열을 더하기 어려우나 데이터의 일관석 or 분석에 용이

- No-SQL : 딕셔너리 형태로 데이터를 저장해둔 DB, 자유로운 형태이지만 일관성 부족

- 최근 클라우드 서비스 이용

 

 

9. mongoDB

- Allow Access from Anywhere로 설정

- mongoDB-Atlas 연결 시 패키지 설치(pymongo, dnspython) -> pymongo는 mongoDB 프로그램을 조작하는 특별한 라이브러리

-  pymongo 기본코드

from pymongo import MongoClient
client = MongoClient('여기에 db connect url 입력(패스워드 입력)')
db = client.dbsparta

doc = {
   'name':'bob',
   'age':27
}

db.users.inset_one(doc)  # 데이터 넣기

 

 

10. pymongofh DB조작하기

1) 데이터 넣기

db.users.insert_one({'name': 'bobby', 'age': 21})

 

2) 모든 결과값 보기

all_user = list(db.users.find({}, {'_id': False}))

print(all_users[0])         # 0번째 결과값을 보기
print(all_users[0]['name']) # 0번째 결과값의 'name'을 보기

for user in all_users:      # 반복문을 돌며 모든 결과값을 보기
    print(user)

*결과값이 여러개이기 때문에 꼭 list로 받아야 함! 

 

3) 특정 결과값 뽑아보기

user = db.users.find_one({'name': 'bobby'})
print(user)
# 이름이 bobby인 db 출력

 

4) 수정하기

# 이름이 bobby인 사람의 나이를 19로 변경
db.users.update_one({'name': 'bobby'}, {'$set': {'age': 19}})

user = db.users.find_one({'name': 'bobby'})
print(user)

 

5) 삭제하기

# 이름이 bobby인 사람 정보를 삭제
db.users.delete_one({'name': 'bobby'})

user = db.sers/find_one({'name': 'bobby'})
print(user)

 

6) 요약

# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})

# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
all_users = list(db.users.find({},{'_id':False}))

# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

# 지우기 - 예시
db.users.delete_one({'name':'bobby'})

 

 

11. 웹스크래핑 결과 저장하기

- 도큐먼트 만들어 하나씩 insert 하기

import requests
from bs4 import BeautifulSoup

# pymongo 기본 세팅
from pymongo import MongoClient
client = MongoClient('mongodb+srv://test:sparta@cluster0.55vah.mongodb.net/Cluster0?retryWrites=true&w=majority')
db = client.dbsparta

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
    # movie 안에 a 가 있으면,
    a_tag = movie.select_one('td.title > div > a')
    if a_tag is not None:
        rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
        title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
        star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
        
        #도큐먼트 만들어 하나씩 insert 하기
        doc = {
            'rank': rank,
            'title': title,
            'star': star
        }
        db.movies.insert_one(doc)

 

 

12. Quiz_웹스크래핑 결과 이용하기

- 영화제목 '가버나움'의 평점 가져오기

target_movie = db.movies.find_one({'title': '가버나움'})
print(target_movie['star'])

 

- '가버나움'의 평점과 같은 평점의 영화 제목들을 가져오기

target_movie = db.movies.find_one({'title': '가버나움'})
target_star = target_movie['star']

movies = list(db.movies.find({'star': target_star}))

for movie in movies:
   print(movie['title'])

 

- '가버나움' 영화의 평점을 0으로 만들기

db.movies.update_one({'title': '가버나움'}, {'$set': {'star': '0'}})

 

 

13. 3주차 숙제

- 지니뮤직의 1~50위 곡 스크래핑 하기(순위/제목/가수)

import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://www.genie.co.kr/chart/top200?ditc=M&rtm=N&ymd=20210701',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

trs = soup.select('#body-content > div.newest-list > div > table > tbody > tr')

for tr in trs:
    title = tr.select_one('td.info > a.title.ellipsis').text.strip()
    rank = tr.select_one('td.number').text[0:2].strip()
    artist = tr.select_one('td.info > a.artist.ellipsis').text
    print(rank, title, artist)

*strip 함수는 문자열이나 공백 제거 함수

반응형

'개발일지 > 스파르타코딩클럽_웹개발' 카테고리의 다른 글

Day07(5-1~5-14)  (0) 2022.08.25
Day06(4-1~4-14)  (0) 2022.08.09
Day04(2-1~2-13)  (0) 2022.08.04
Day03(1-14~1-20)  (0) 2022.07.02
Day02(1-3~1-13)  (0) 2022.07.02