본문 바로가기

분류 전체보기

(8)
[글인트] 2회차 블로그 25.1.9 ~ 25.2.15 QI AI 프로그램샌디에고에 돌아와 프로그램을 시작했다.프로그램은 UCSD 내부의 퀄컴 연구소에서 진행된다. 첫번째 주에 우리를 어디론가 데려갔다. 결과적으로 이런 모양의 경관을 보여줬지만 가는 길이 너무 힘들었다.몇시간동안 책가방 메고 걸어서 도착해서 저기 도착했을 때는 경치가 잘 눈에 안들어왔다. ㅠ  또 다른 날은 퀄컴 연구소를 구경시켜줬다.퀄컴이 뭐하는 곳인지 좀 자세히 알게되었다.  그리고 평일엔 매일 수업 듣고 팀플을 반복했다.수업은 KNIME 사용법과 클래식한 머신러닝 알고리즘을 알려준다. 딥러닝은 다루지 않는다.우리 팀은 7팀이었고, 충대생 3명과 다른 학교 학생 2명으로 구성되었다.매일 10시부터 6시까지 공식 일정이 진행됐는데, 사실 숙소 와서도 프로젝트를..
[글인트]1회차 블로그 24.12.31 ~ 25.1.4 샌디에고한국에서 12월 31일 출국해서 비행기에서 한국 기준 새해를 맞고 12월 31일 LA에 도착했다.바로 샌디에고로 이동해서 잠을 자고 1월 1일은 MI-333 회사를 견학 했다.  1월 2일부터는 샌디에고 구경을 좀 하면서 쉬었다.UTC가 호텔 바로 앞이라서 자주 갔었다.중간에 날을 잡고 갔던 라호야 코브에서 바다를 봤다. 바다에서 물개 구경도 하고 DUKE라는 햄버거 집도 갔다.농구 경기를 관람하는 날 나는 몸이 안좋아서 약을 먹고 쉬었다.마지막 날에는 트롤리를 타고 발보아 파크에 갔다. 발보아 파크에는 늦게 도착해서 사실 잘 구경은 못했다.그리고 어두운 시간에 트롤리 역은 무섭다. 노숙자가 많다. 25.1.5 ~ 25. 1.8 라스베가스 CES 참관이후 CES 참..
[24-Summer]모각코 6회차 목표- RAG- langchain결과huggingface의 LLM 모델을 사용하여 vectorDB와 연결하여 langchain을 이용한 RAG 구축
[24-Summer]모각코 5회차 목표- RAG- langchain결과chromaDB를 이용해 vectorDB를 구성하고 huggingface 모델을 이용하여 임베딩함.
[24-Summer]모각코 4회차 목표- fastAPI- routing(라우팅)결과routing(라우팅)FastAPI가 요청받은 URL을 해석하여 그에 맞는 함수를 실행하여 그 결과를 리턴하는 행위.라우팅에 대해 공부하고 실습
[24-Summer]모각코 3회차 목표- fastAPI- Model로 DB관리(ORM)결과ORM 사용ORM (Object Relational Mapping)개발자가 쿼리를 직접 작성하지 않아도 DB의 데이터를 처리할 수 있다.ORM은 DB에 데이터를 저장하는 테이블을 파이썬 클래스로 만들어 관리하는 기술로 이해해도 된다.데이터를 관리하는데 사용하는 ORM 클래스를 모델이라고 한다. 모델을 사용하면 내부에서 SQL쿼리를 자동으로 생성해준다.ORM 라이브러리 SQLAlchemy를 사용하여 ORM에 대해 공부하고 실습함.
[24-Summer]모각코 2회차 fastAPI 공부목표- fastAPI 환경설정결과BE가상환경(ex - venv) 만들고pip install fastapiuvicorn : 비동기 호출을 지원하는 파이썬용 웹 서버pip install "uvicorn[standard]"uvicorn main:app --reload→ 8080 포트로 백엔드 서버 실행 FESvelte 사용Node.js 설치 필요node -v 로 설치 확인npm create vite@latest frontend -- --template sveltecd frontendnpm installvim jsconfig.json 들어가서 checkJS : false로 설정npm run dev 서버 실행→ 5173 포트로 프론트엔드 서버 실행
[24-Summer]모각코 1회차 langchain 공부HTML 파일 loadtext splitter를 이용하여 문서 나누기import osimport json import http.clientimport requestsfrom pathlib import Pathfrom langchain_community.document_loaders import UnstructuredHTMLLoaderfrom langchain_text_splitters import RecursiveCharacterTextSplitterurl_to_filename_map = {}### url이 쓰여진 txt파일을 한 줄씩 읽는다.with open("./urls.txt", "r") as file: urls = [url.strip() for url in file.re..