일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- django
- 파이썬
- 멋사 면접
- 디스코드봇
- 알림봇
- 멋쟁이사자처럼 서류
- 깃허브
- ㅏㄴ
- 멋사
- 코딩동아리
- 멋사10기
- API
- 멋사 서류평가
- 멋쟁이 사자처럼
- 멋사 합격
- 멋사12
- IT동아리
- 멋사 10기
- 백엔드
- 웹동아리
- 기사 제목 크롤링
- 크롤링
- 멋쟁이사자처럼대학
- 멋사11기
- 파이썬 크롤링
- 멋쟁이사자처럼11기
- discord
- 멋쟁이사자처럼10기
- 멋쟁이사자처럼
- 멋사 서류
- Today
- Total
목록파이썬 (5)
ACHO.pk devlog
드디어 백엔드에 첫 발을 내딛는 순간이다. 내가 추가적으로 공부할 때나 새로운 프로젝트를 진행할 때 이렇게 기록하는 것이 도움이 된다는 걸 잘 알기 때문에 귀찮더라도 꾸준히 기록하기 위해 노력하고 있다. ...작성하다가 다 날라가서 멘탈도 같이 터졌다... 가상환경 셋팅하기 나는 코드라이언에서 알려준 방법으로 가상환경이 세팅이 되지 않아 구글링을 통해 cmd 창으로 가상환경을 만들었다. ### cmd 창 ### $ cd 폴더 경로 $ python -m venv 가상환경이름 django 설치하고 프로젝트 생성하기 vs code에서 가상환경 만든 폴더를 불러온 후, 터미널에서 django를 설치해준다!! pip install django django-admin startproject 프로젝트이름 pip fr..
백엔드랑 프론트엔드를 어떻게 연결해야하며, 백엔드는 어떻게 공부를 해야할 지 막막했는데, 멋사 덕분에 계속해서 공부하고 성장하면서 배움의 부족을 채울 수 있게 되었다. 웹 서비스를 쉽게 만들어주는 웹 프레임워크에 대해 깊이 배우고 활용하는 시간을 갖을 수 있다는 점에서 혼자 학습할 때 어려워했던 부분을 조금씩 해소할 수 있으리라 믿는다. 일단, 우리가 구현할 프로젝트를 그림으로 그리고, 필요한 기능은 Django 핵심 개념을 학습하면서 익혀보자. 시도부터 하자! python에서 예외처리 다루기 Python의 오류 -문법 에러(파싱 에러) : 실행 자체에 영향을 주는 치명적인 오류 -예외 : 프로그램 실행 자체를 멈추지는 않는 오류, 실행 중 감지되는 오류 이런 예외적인 상황을 코드로 Handling하는 ..
gtts 라이브러리로 텍스트를 음성으로 바꿔주는 프로그램을 만든 적이 있는데, googletrans 라이브러리는 번역을 해준다. 파파고나 네이버 번역기와 같은 번역 시스템은 이 둘을 합쳐서 사용하나 보다.. ㅎㅎ Googletrans 라이브러리에 대해 알아보기 언어 감지 및 번역 기능을 가진 Module 즉, Library( 모듈을 큰 기능 단위로 묶어둔 것 ) from googletrans import Translator 언어 감지하기 1. 번역기를 만든다. translator = Translator()#googletrans 라이브러리 안에 구현되어 있는 번역기 기능을 사용한다. 2. 언어 감지를 원하는 문장을 설정한다. sentence1 = "Hello, I'm ACHO."#언어를 감지할 문장을 적어..
멋사 서울여대 스터디에서 Python 심화 응용 미션을 진행했다. 크롤링하기를 원하는 페이지와 뉴스 검색어를 입력해서 해당 키워드가 포함되거나 관련된 뉴스 제목을 크롤링하고 얻은 값을 엑셀에 표로 나타내야 했다. 멋사 서울여대 스터디 Python 응용 미션 1) 기본 세팅 -beautifulsoup4 install -Requests install -Pandas install -Openpyxl install 2) HINT -url 분석하여 페이지 검색어 + 페이지 번호 입력하는 코드 짜기 검색할 키워드를 입력하고, 크롤링할 페이지의 숫자를 입력하면 키워드와 연관된 뉴스의 기사제목이 10개가 출력된다. 갯수는 줄일수도 늘릴수도 있다. 크롤링한 결과를 번호, 제목으로 엑셀 파일에 저장하면 된다. 엑셀 파일에 ..
오늘 멋사 서울여대의 정기세션에서는 다음과 네이버의 실시간 검색어 데이터를 추출하는 크롤링에 대해 배웠다. 올해 초에 자바 JSOUP으로 서울여대 공지사항 게시글 제목을 크롤링 한 적이 있기 때문에 파이썬으로 새롭게 배운다는 마음으로 임했다. 크롤링하는 방법은 같지만 함수나 모듈이 서로 달라 헷갈리는 것도 많았다. ※웹페이지가 계속해서 업데이트가 되다보니, html에서 태그나 클래스가 변경되면 크롤링이 안 될 수도 있다. 최근 코드는 github에서 확인하면 되겠다. 크롤러란? 웹 페이지의 데이터를 추출하기 위해서는 '크롤러'에 대해 알아야 한다. Crawler : 1. 기는 것 2. 파충류 Crawler: 웹 페이지의 데이터를 모아주는 소프트웨어 Crawling: 크롤러를 사용해 웹 페이지의 데이터를 ..