Pinned Posts
Độ hot của Langchain
Langchain là một framework vô cùng hot hit trong thời gian gần đây. Nó được sinh ra để tận dụng sức mạnh của các mô hình ngôn ngữ lớn LLM như ChatGPT, LLaMA... để tạo ra các ứng dụng trong thực tế. Dù mới được phát triển cách đây khoảng 6 tháng (10/2022) và vẫn được cập nhật liên tục hàng ngày nhưng trên Github Langchain đã nhận được những tương tác khủng với lượng star lê...
All posts
Lời mở đầu Xin chào mọi người, lại là mình đây. Như ở phần một thì mình cũng đã trình bày sương sương về khái niệm của RAG và cách hoạt động của nó. Vậy thì ở cái phần 2 này mình sẽ cùng mọi người thực hành tạo một con bot với RAG sử dụng framework llamaindex nhé.
Trước khi vào bài thực hành thì mọi người có thể download file notebook và datasets ở đây nhé: prepare
Thực hành Cài đặt một số pa...
Ở phần trước chúng ta đã đi qua các mục giới thiệu về Azure AI Search và cách Indexing. Trong phần này chúng ta sẽ đi vào các cách Querying và một số mẹo tinh chỉnh chúng.
Cùng bắt đầu nào!
Nội dung 3. Querying Azure AI Search hỗ trợ các cấu trúc truy vấn cho nhiều tình huống khác nhau, từ tìm kiếm văn bản dạng tự do đến các mẫu truy vấn được chỉ định cụ thể đến tìm kiếm vectơ. Tất cả các tru...
Lời mở đầu Với lượng dữ liệu ngày càng tăng, việc tìm kiếm và phân loại thông tin trở nên phức tạp hơn bao giờ hết. Azure AI Search là một dịch vụ tìm kiếm được cung cấp bởi Microsoft Azure, mang đến khả năng tìm kiếm thông tin mạnh mẽ và linh hoạt cho các ứng dụng và trang web.
Trong bài chia sẻ này, chúng ta sẽ khám phá cách sử dụng Azure AI Search để tìm kiếm và phân loại thông tin một các...
Lời mở đầu Lâu rồi mới viết lại, âu cũng do KPI đã đặt thì phải thực hiện thôi 🥲. Ok, hôm nay tôi sẽ giới thiệu cho các bạn ngôn ngữ Wing mới ra gần đây.
Bài viết này hướng tới người đọc:
- Đang làm việc với Cloud: AWS, Azure, Google, ...
- Đang nghiên cứu Cloud
- Đang gặp khó khăn trong việc tiếp cận Cloud
Thời điểm viết bài này là 9:31 pm ngày mùng 5/9/2024. Sau khoảng thời gian đó mà repo...
Chất lượng của mô hình học sâu (deep learning) có liên quan chặt chẽ đến quá trình huấn luyện chúng. Để huấn luyện được mô hình tốt, việc giảm nhiễu (noise) từ quá trình cập nhật ngẫu nhiên (stochastic updates) là cần thiết. Cách chính quy, đã được chứng minh bằng toán học, dùng để giảm nhiễu trong tối ưu hàm lồi phải kể đến (tail) average. Ứng dụng trong học sâu (deep learning), để có được mô...
1.Giới thiệu chung. Nhiệm vụ tổng hợp hình ảnh người được điều khiển bởi âm thanh có rất nhiều ứng dụng, do đó, gần đây có nhiều nghiên cứu về chủ đề này. Nhiều phương pháp dựa trên việc sử dụng điểm đặc trưng (landmarks) và lưới (meshes) để làm thông tin cấu trúc khuôn mặt đã được phát triển, tức là sử dụng các đặc trưng trung gian làm cơ sở, và tất nhiên hiệu quả rất phụ thuộc vào các đặc trư...
Trong bài viết trước, mình có giới thiệu tới các bạn về Full-text search trong Azure AI Search. Trong bài viết này, mình sẽ đi phân tích sâu hơn về cách tính score của nó (có thêm scoring của Semantic search bổ trợ). Như các bạn đã biết thì việc search, ngoài trả ra các docs liên quan thì nó cũng cần có những score tương ứng để xếp hạng (ranking) chúng theo độ tương đồng. Chúng ta bắt đầu nhé ...
Dữ liệu đang tăng lên với tốc độ chóng mặt, và việc tìm kiếm thông tin dữ liệu trở nên cần thiết và khó khăn hơn bao giờ hết. Với sự phát triển mạnh mẽ của LLM ở thời điểm hiện tại, Retrival Augmented Generation hứa hẹn một tương lai đầy triển vọng. Gần đây thì mình tiếp xúc với khá nhiều dự án về RAG và cũng được làm việc chủ yếu với Azure AI Search cho nhiệm vụ Retrival data.
Azure AI Search...
Như mọi người đã biết thì hiện tại LLM nó ở khắp mọi mặt trận rồi, nhà nhà LLM người người LLM. Các ứng dụng của LLM cũng ngày càng phổ biến hơn. Vậy nên, hôm nay mình sẽ giới thiệu cho mọi người một kỹ thuật có tên là Retrieval-Augmented Generation (RAG) một kỹ thuật cực kỳ quan trọng và phổ biến. Oke, vậy RAG là gì? Mà tại sao lại cần nó trong các dự án LLM thực tế?
RAG là gì nhỉ?
Về mặt bả...
Lời mở đầu Hiện nay các hệ thống RAG ngày càng phổ biến và khá nhiều trong số đó sử dụng Azure OpenAI nhưng liệu bạn đã thực sự nắm được sử dụng như thế nào cho hiệu quả ? Sau 1 vài dự án về RAG, mình đã đúc kết được một số kinh nghiệm trong việc sử dụng Azure OpenAI và cách viết prompt sao cho tối ưu nhất.
Nội dung
- Cân nhắc khi chọn version cho Azure OpenAI API Đầu tiên, khi chọn Azure op...
Mở đầu Với những người sử dụng Large Language Model (LLM), hẳn cái tên Mixtral 8x7B đã không còn xa lạ gì nữa. Nhưng có ai thắc mắc tại sao lại là "8x7B" chứ không phải là 56B hay 7B như các model khác? Bài viết này sẽ giải đáp về cái tên của Mixtral 8x7B, cũng như là kĩ thuật mà mà Mixtral 8x7B đã sử dụng: Mixture of Experts (MoE). Nhìn lại một chút về Transformer Chắc hẳn bây giờ ai cũng đã b...
Sau gần 3 năm làm thợ gõ phím, tôi nhận ra rằng mỗi lần làm dự án là một lần để tôi nhận thấy mình code ngu như thế nào. (メ﹏メ) (メ﹏メ) (メ﹏メ)
Và tất nhiên rồi, không chần chừ gì nữa, tôi xin phép giới thiệu đến quý đọc giả về dbt (Data Build Tool) - công cụ mà tôi ước giá như mình biết sớm hơn để công việc trong quá khứ trôi chảy hơn rất nhiều (b ᵔ▽ᵔ)b
Một chút context
À thì cũng không phải tự...
Trong bài viết trước , mình đã giới thiệu về các khái niệm như vector search, vector database, search engine etc và ví dụ qua một công cụ cloud-based search engine là Azure Cognitive Search. Như đã đề cập trong phần trước, Azure Cognitive Search cung cấp các hình thức tìm kiếm sau:
- Azure Full-Text Search
- Azure Vector Search
- Azure Hybrid Search
Trong bài viết trước, mình và các bạn đã điể...
Ở bài trước mình đã giới thiệu sơ qua về RAG - Retrieval Augmented Generation - một phương pháp hữu hiệu giải quyết vấn đề hallucination cho các bài toán dùng LLM để truy xuất và cung cấp thông tin.
RAG giúp nâng cao kiến thức của mô hình ngôn ngữ bằng thông tin từ các nguồn bên ngoài đáng tin cậy như Wikipedia, các tài liệu về một vấn đề cụ thể. Vì vậy bước quan trọng nhất đối với RAG là đảm ...
Giới thiệu Skorch PyTorch luôn là một lựa chọn của hầu hết các anh em AI engineer để xây dựng bất kỳ mô hình học sâu nào. Tuy nhiên, có một điều đặc biệt mà anh em nào từng code PyTorch cũng thường xuyên gặp phải như hình bên dưới:
Trong đoạn code trên, với mỗi epoch thì chính ta cần lặp qua hết các batch dữ liệu. Mỗi batch dữ liệu chúng ta cần forward qua mô hình, tính loss và backward để cập...
Chào các bạn, như chúng ta cũng đã thấy ChatGPT đã làm khuấy động thị trường được gần 1 năm rồi. Kể cả tech hay non-tech đều sử dụng GPT khá là nhiều. Và vì vậy mình cũng muốn thử tìm kiếm xem có thể viết code chỉ bằng những mô tả từ ngữ thì có thể không? Và mình đã tìm thấy jupyter-ai . Với Jupyter-ai chúng ta ssẽ sử dụng Jupyter AI trực tiếp trong Jupyter Notebook và Jupyter Lab của mình để d...
Lời mở đầu Chào các bạn, mình trở lại rồi đây. Sau một thời gian làm dự án về một hệt thống trợ lý ảo sử dụng các công nghệ bên thứ 3 như OpenAI, Azure thì hôm nay, mình sẽ chia sẻ cho các bạn một kiến thức khá hot dạo gần đầy liên quan đến lĩnh vực Prompt Engineering, đó là prompt sao cho hiệu quả ChatGPT xịn xò, nhưng nếu bạn không biết cách hỏi hay hướng dẫn nó trả lời sao cho đúng ý bạn, th...
Giới thiệu Chắc hẳn các bạn không còn xa lạ gì với các mô hình ngôn ngữ lớn (large language models - LLM), kể từ khi OpenAI ra mắt ChatGPT vào tháng 11 năm ngoái (2022) thì thuật ngữ này ngày càng xuất hiện nhiều hơn và AI cũng được chú ý đến nhiều hơn. Sau hơn 1 năm số lượng các mô hình ngôn ngữ gia tăng một cách chóng mặt với đa dạng về kích thước, ngôn ngữ, phạm vi ứng dụng. Có thể nói lĩnh ...
Intro Tiếp tục chuỗi bài viết về thư viện fastai, trong bài viết hôm nay, chúng ta sẽ cùng nhau tìm hiểu về hệ thống callback - nguyên liệu chính của training loop trong class Learner.
Một chút về Callback Callback là gì? Callback về cơ bản chỉ là một function được gọi khi một sự kiện nào đó xảy ra. Ví dụ khi các bạn code 1 trang web bằng HTML với một nút trên đó. Nếu bạn muốn có 1 tác vụ nào ...
ADAPTATION TUNING OF LLMS Sau quá trình pretraining, tiếp đến ta sẽ cần finetune mô hình với downstream task nếu muốn mô hình hoạt động tốt với các tác vụ thực tế. Ở thời điểm hiện tại có 2 hướng finetuning chính cho LLM là : instruction tuning và alignment tuning. Cách tiếp cận đầu tiên chủ yếu nhằm mục đích nâng cao (hoặc mở khóa) khả năng của LLM, trong khi cách tiếp cận sau nhằm mục đích đi...