컴퓨터/AI
-
github MCP를 사용할 때 docker가 필요함, docker desktop 제거하는 법, rancher desktop 설치하기컴퓨터/AI 2025. 6. 10. 17:24
* docker desktop은 직원 수가 많은, 소규모 기업이 아닌 곳에서는 유료로 사용해야 한다.훗날 발생할 수 있는 과금 이슈를 예방하기 위해 설치했던 docker desktop을 제거하고rancher desktop이란 것을 설치하기로 했다. * docker desktop 제거 방법 https://docs.docker.com/desktop/uninstall/docker desktop 접속GUI 좌하단에 세로로 점 3개 있는 아이콘 클릭 > trouble shoot 클릭uninstall 클릭 Application 폴더에서 docker 휴지통으로 보내기 이것만 하면docker context ls 했을 때, desktop-linux(도커 데스크탑)이 남아있더라 추가로 터미널에서 다음 명령어를 입력해준다...
-
MIT Introduction to Deep Learning 6.S191: Lecture 1컴퓨터/AI 2025. 5. 30. 18:14
https://youtu.be/alfdI7S6wCY?si=uz2kjnaBIhncetuV Teaching computers how to learn a task directly from raw data. * Why Deep Learning and Why now?tranditional machine learning typically defines what are called sets of features.These bar basically rules of how to do a task step by step.The problem is that we're not usually good at building very robust features so far. the key idea of deep learning ..
-
Build a Large Language Model컴퓨터/AI 2025. 5. 29. 23:45
* 유튜브, 홍정모 - LLM 바닥부터 만들기 (대형언어모델) 1시간 핵심 정리 수업을 듣고 정리했다.https://youtu.be/osv2csoHVAo?si=lBAQqiVy4o8SQ6xu * Build a Large Language Model 딥시크 이후 LLM을 바닥부터 만드는 기술에 대한 진입장벽이 낮아지고 있다.회사별로 필요한 LLM을 바닥부터 만들어 사용하게 될 가능성이 높아지고 있다.앞으로 컴공에서 LLM을 직접 만들어보는 수업을 많이 하게 될 것이라고 한다. https://github.com/HongLabInc/HongLabLLM/blob/main/01_pretraining.ipynb HongLabLLM/01_pretraining.ipynb at main · HongLabInc/HongLa..
-
프롬프트 엔지니어링컴퓨터/AI 2025. 5. 27. 23:21
* LLM을 잘 활용한다는 것은 프롬프트를 잘 작성한다는 것이다. LLM 동작 원리를 이해하면 프롬프트를 작성하기 수월하다.LLM을 비롯한 딥러닝 모델들은 사실 엄청나게 빠르고 정확한 계산기무엇을 계산하는가?확률을 계산한다.사용자의 인풋(프롬프트)이 들어왔을 때, 학습된 데이터를 기반으로 판단해보니가장 높은 확률로 이런 아웃풋을 원할 것이다. 답변을 어떻게 잘 받을까?질문의 퀄리티가 좋아야 한다. 프롬프트의 목적LLM이 확률을 더 빠르고 정확하게 계산할 수 있도록 하는 것 출처: 인프런, 강병진 - LangGraph를 활용한 AI Agent 개발 * 프롬프트 엔지니어링 가이드https://www.promptingguide.ai/kr 프롬프트 엔지니어링 가이드 – NextraA Comprehensive ..
-
트랜스포머 아키텍처컴퓨터/AI 2025. 5. 19. 00:44
출처:유튜브 모두의AI, 초거대 언어모델 간단 알아보기: https://youtu.be/XwlLeVhWCCc?si=ymMOPMExeTPl-hqj유튜브 Coding Opera Korea, 자연어처리 트랜스포머: https://youtu.be/-z2oBUZfL2o?si=P4HdHFZtqQbC7cjN * 트랜스포머 아키텍처 현재 ChatGPT와 같은 전세계 자연어처리 모델(LLM)들을 이루는 가장 핵심 아키텍처 인코더와 디코더로 이루어져 있다인코더: 말을 잘 이해하는 영역아날로그 신호를 암호화된 디지털 신호로 바꾼다 디코더: 말을 잘 하는 영역암호화된 디지털 신호를 아날로그 신호로 바꾼다. 트랜스포머의 원래 목적은 번역기였다2017년 구글 논문에서, 번역 특화 모델로 트랜스포머가 제시되었다. 이전: RNN..