Tool(5)
-
[Messaging System] MQ vs Kafka 정리
주제 선정 직장에서 기존에 사용하던 MQ Storage에서 Kafka로 tool 변경을 진행한다고 한다.내가 속한 프로젝트는 기존 보유하고 있는 IT 솔루션을 MSA(Microservice Architecture)로 옮기는 작업을 진행 중에 있다.이에 호기심이 생겨, 관련된 영상과 블로그를 찾아 간략하게 정리해 본다. AI 쪽과 개발은 또 다른 세계이다 보니, 필수 개념들을 위주로 정리해 보았다.위의 개념들을 이해하는데 [얄팍한 코딩사전] Message Broker - 카프카와 RabbitMQ를 알아보자 가 많은 도움이 되었다.해당 게시물은 위의 영상을 main으로, 참조에 있는 글들을 보며 개념을 정리한 결과물이다. 마이크로서비스 아키텍처에서의 필요성 마이크로서비스 아키텍처에서는 한쪽이 여러 대상에게 ..
2025.03.14 -
[Lilys AI] AI vs 사람, 누가 더 요약을 잘할까?
개요LLM 프로덕트를 다루는 직종에 있다 보니, 업계 동향에 관심이 많다.그중, 많은 사람들이 이용해보면 좋을 서비스가 있어 공유한다.영상 요약 서비스를 제공하는 릴리스 AI이다.인공지능(AI) 기반 영상 전문 스타트업인 릴리스 AI(Lilys AI)이다.2023년 10월 출시된 서비스로, 코드 배포(release)를 많이 하자는 사명을 갖고 회사 이름도 릴리스로 지었다고 한다.회사 이름에 맞게 성장도 굉장히 빠르게 되고 있다.성과✅ 출시 2주만에 사용자 1만 명 확보, 사용자 재방문 비율 30% 달성✅ 출시 6개월만에 월 1천만 원의 매출. 서비스 이용자 14만 명 Lilys AI 서비스 소개이용 가능 서비스 & 활용 가능 분야현재 총 5가지 인풋 데이터 서비스 제공 중이 글에서는 영상에 대한 실습만..
2024.05.02 -
MLX, 애플에서 발표한 오픈 소스 딥러닝 프레임워크
이 게시물은 2023년 12월 16일에 Tristan Bilot가 Medium에 개제한 "MLX vs MPS vs CUDA: a Benchmark"에 대해 번역, 첨언한 내용임을 밝힙니다.👉MLX vs MPS vs CUDA: a BenchmarkIntroduction맥 사용자이면서 딥러닝에 관심이 많다면, 맥에서 무거운 모델들을 다루는 순간들을 기다려왔을텐데요.애플에서 최근 맥북에 도입한 전용 칩에서 ML 모델을 효율적으로 돌릴 수 있는 프레임워크인 "MLX"를 출시했습니다.(현지 시간 12월 6일) MLX는 애플에서 직접 개발한 머신러닝용 어레이 프레임워크인데요.애플 실리콘의 CPU와 GPU를 활용해 벡터와 그래프 연산의 속도를 높일 수 있습니다.그 중에서도 lazy evaluation이라는 프로그래..
2023.12.26 -
PEFT(효율적 파라미터 파인 튜닝) 활용한 성능 최적화: 프롬프트 튜닝 딥다이브
이 게시글은 2023년 11월 27일 Akriti Upadhyay가 medium에 게재한 "Optimizing Performance with PEFT: A Deep Dive into Prompt Tuning" 글에 대한 번역과 함께 첨언한 내용임을 밝힙니다. 👉원문: "Optimizing Performance with PEFT: A Deep Dive into Prompt Tuning" Optimizing Performance with PEFT: A Deep Dive into Prompt Tuning Elevate Your Language Model’s Performance with Advanced Prompt Optimization medium.com 목차는 다음과 같습니다. 앞에서는 관련 개념을 설명한..
2023.12.13 -
Inductive Bias
안녕하세요! ViT를 공부하며 핵심적인 개념인 inductive bias에 대해 추가적으로 공부하게 되었습니다. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale에는 inductive bias와 관련해 다음과 같은 구절이 나옵니다."Transformers lack some of the inductive biases inherent to CNNs, such as translation equivariance and locality, and therefore do not generalize well when trianed on insufficient amounts of data."(p.1) "We find that large ..
2023.03.27