Logs
- QuickGPT ํ๋ก๊ทธ๋จ์ ์ฌ์ฉ ์ค์ธ๋ฐ, ๋งค์ฐ ๋ง์กฑ์ค๋ฝ๋ค.
Notes
- ํ๊ตญ์ด ์๋ฒ ๋ฉ๊ณผ ์ ๋ฏธ๋AI๋ฅผ ์ด์ฉํ ๋ฌด๋ฃ RAG ์์คํ ๊ตฌ์ถํ๊ธฐ
- ์ต์๋์ธ ๋ ธํธ์ ๋ญ์ฒด์ธ์ ์ด์ฉํ RAG ์์คํ ๋ง๋ค๊ธฐ
- RAG์ ๊ฐ์ฅ ์ ํฉํ ์๋ฒ ๋ฉ/์ฌ์์ ์กฐํฉ์ ๋ฌด์์ผ๊น?
- Which mix of embeddings/rerankers works best for RAG? | LlamaIndex posted on the topic | LinkedIn
- ์๋ฒ ๋ฉ ๋ชจ๋ธ(์ง๋ ์ฃผ์ ์ถ์๋ ๋ชจ๋ธ ํฌํจ):ย โ ย Cohere-v3,ย โ Voyage AI,ย โ ย Jina AI,ย โ llm-embedder,ย โ ย Cohere-v2,ย โ bge-large,ย โ ย OpenAIย ada-002,ย Rerankers(Cohereย , bge-reranker-large, bge-reranker-base)
- Cohere/bge-reranker-large๋ฅผ ์ฌ์ฉํ OpenAI/Voyage ์๋ฒ ๋ฉ์ด ์ต๊ณ ์ ๊ฒ์ ์ฑ๋ฅ์ ๋ณด์ฌ์ค
- ๋ธ๋ก๊ทธ ์ ๋ฌธ: https://blog.llamaindex.ai/boosting-rag-picking-the-best-embedding-reranker-models-42d079022e83
- Colab ๋ ธํธ๋ถ: https://colab.research.google.com/drive/1TxDVA__uimVPOJiMEQgP5fwHiqgKqm4-?usp=sharing
- Reddit - Dive into anything
- llama-2-7b, chat-hf, flan-T5-large ๋ฑ ๋ค์ํ ๋ชจ๋ธ์ ์คํํด๋ดค์ผ๋, ์ด๋ ค์์ ๊ฒช์
- MTEB ๋ฆฌ๋๋ณด๋์์ ํ์ธ ๊ฐ๋ฅ. bge-1.5 ๋ชจ๋ธ ์ถ์ฒ
- reranker์์ bge-reranker-large ์ฌ์ฉ์ ์ถ์ฒ. ๋ชจ๋ ๋ถ์ฉ์ด๋ฅผ ์ ๊ฑฐ ๋ฐ ํ์ ์ด ์ ๋ฆฌ ๋ฑ์ ์ ์ฉํ์ฌ ์๋ฒ ๋ฉํ ๋ค์, bm25 ๋๋ ์ ์ฌํ classic lexical ์๊ณ ๋ฆฌ์ฆ์ ์ฌ์ฉํ์ฌ ์์ ์ฌ์ง์ ๋๋ rag fusion ๋จ๊ณ์ โํ์ด๋ธ๋ฆฌ๋ ๊ฒ์โ ๊ฒฐ๊ณผ๋ฅผ ์ถ๊ฐํ๋ค.
- bge-large-en-1.5 ๋ณด๋ค bge-base-en-1.5 ์ฌ์ฉ์ ์ถ์ฒํ๋ค. ํฌ๊ธฐ๋ ์ ๋ฐ์ด๊ณ ์ฑ๋ฅ์ ๊ฑฐ์ ๋น์ทํ๋ค.
- OpenAI์ text-embedding-ada-002์ ๊ฒฝ์ํ ์ ์๋ โJina v2โ๋ฅผ ์ถ์ฒํ๋ค.
- llama-2-7b, chat-hf, flan-T5-large ๋ฑ ๋ค์ํ ๋ชจ๋ธ์ ์คํํด๋ดค์ผ๋, ์ด๋ ค์์ ๊ฒช์
- Which mix of embeddings/rerankers works best for RAG? | LlamaIndex posted on the topic | LinkedIn