Image Cover
Avatar

Sun* AI Research Team

level partner

Nhà sáng tạo nội dung hạng Bạc

We're AI Research Team of R&D Lab @Sun Asterisk .Inc

Bài viết được ghim

Độ hot của Langchain

Langchain là một framework vô cùng hot hit trong thời gian gần đây. Nó được sinh ra để tận dụng sức mạnh của các mô hình ngôn ngữ lớn LLM như ChatGPT, LLaMA... để tạo ra các ứng dụng trong thực tế. Dù mới được phát triển cách đây khoảng 6 tháng (10/2022) và vẫn được cập nhật liên tục hàng ngày nhưng trên Github Langchain đã nhận được những tương tác khủng với lượng star lê...

Mayfest2023 ContentCreator
18.2K
66
31 8

Tất cả bài viết

Thumbnail Image
110
1
0 0
Avatar HOneOhOne May 31st, 4:28 p.m.
12 phút đọc

Tìm hiểu về giải pháp Digital Humans phần 5: AIORTC - Đưa Digital human đến gần hơn với người dùng

Sơ đồ hoạt động của hệ thống: Dưới đây là sơ đồ hoạt động của hệ thống digital human:

Nhìn vào kiến trúc tổng thể, ta thấy rằng để hiển thị Digital Humans một cách sống động, chúng ta cần đồng bộ hóa giữa hình ảnh video và âm thanh, và đẩy cả hai vào một luồng stream duy nhất. Nhưng đó mới chỉ là một nửa câu chuyện. Trải nghiệm sẽ chẳng thể trọn vẹn nếu người dùng không thể tương tác trực tiếp...

Thumbnail Image
312
7
5 1
Avatar Hoàng Minh An May 31st, 4:06 p.m.
13 phút đọc

[Advanced-LLM] Điều gì thật sự "ẩn dấu" sau "sự suy luận" của LLM ? Vén màn một chút sự thật....

Mở đầu. Hiện tại đang là 31/5🫠, mình về quê, chưa biết làm gì cả, thôi thì viết thêm một bài nữa kết thúc tháng 5 nào 😉.

Thì 3 bài trước đó mình đã viết loanh quanh về khả năng của LLM. Vậy thì chính xác model LLM đã làm gì, điều gì khiến nó trở lên lên thông minh như vậy ? Tại sao nó làm được nhưng điều tưởng chừng chỉ có con người mới làm được ? Liệu LLM đã thật sự suy luận hay AGI đang đến ...

Thumbnail Image
145
1
1 2
Avatar Duong Quang Minh B May 28th, 6:02 p.m.
6 phút đọc

BentoML - Serving đơn giản mà hiệu quả

Introduction Trong quá trình triển khai mô hình machine learning/deep learning lên sản phẩm thực tế, những thách thức lớn không chỉ nằm ở việc huấn luyện mô hình, mà còn nằm ở khâu triển khai (serving) sao cho nhanh chóng, ổn định và dễ bảo trì. Trước kia, rất nhiều người bắt đầu bằng cách tự viết Flask hoặc FastAPI để dựng API cho mô hình, kết hợp với Docker nhằm mục đích đóng gói. Nhưng khi s...

Thumbnail Image
478
5
4 0
Avatar Hoàng Minh An May 27th, 10:04 a.m.
24 phút đọc

[Advanced-LLM] Reasoning LLM và Qwen 3 : Vị vua không ngai trong giới Open Source Phần 3.

Mở đầu. Ở phần 1 mình đã nói khá nhiều về các khái niệm của các dạng LLm, cách hoạt động và hình thành, đồng thời nói về các cách tạo nên reasoning của LLMs và phần 2 thì mình có nói đến một paper nói rằng :

  • RLVR chưa phải là một cách đột phá trong việc khiến base model tìm kiếm ra được những reasoning path vượt ra khỏi ngưỡng kiến thức của mô hình base. và việc tạo ra dataset gồm nhiều reas...
Thumbnail Image
120
1
1 0
Avatar Duong Quang Minh B May 26th, 7:52 a.m.
12 phút đọc

Ensemble NVIDIA DALI Backend để xử lý dữ liệu trong Triton Inference Server ?

Overview Trong các bài viết trước đây, mình đã lần lượt giới thiệu đến các bạn hai công cụ cho quá trình tăng tốc xử lý dữ liệu và triển khai mô hình Deep Learning là NVIDIA DALI và Triton Inference Server. Mình xin phép nhắc lại thông tin cơ bản một chút.

NVIDIA DALI Với NVIDIA DALI (Data Loading Library), mình đã trình bày các khái niệm nền tảng về thư viện này với mục đích tối ưu hóa khâu t...

Thumbnail Image
69
2
1 0
Avatar Duong Quang Minh B May 25th, 3:26 p.m.
7 phút đọc

Thử nghiệm hiệu suất NVIDIA DALI ?

Overview Trong bài viết lần trước , mình đã đề cập đến những thông tin cơ bản nhất của NVIDIA DALI, bao gồm khái niệm tổng quan về thư viện này, mục đích sử dụng cũng như những ưu điểm nổi bật mà nó mang lại trong quá trình xử lý dữ liệu hình ảnh và video cho các mô hình học sâu. Bên cạnh đó, mình cũng đã giới thiệu sơ lược về cách tích hợp DALI vào pipeline huấn luyện, giúp tăng tốc độ tiền xử...

Thumbnail Image
126
2
1 0
Avatar Duong Quang Minh B May 24th, 5:41 p.m.
9 phút đọc

NVIDIA DALI - Tăng tốc xử lý dữ liệu ?

Introduction Khi huấn luyện các mô hình deep learning, chúng ta thường dành nhiều sự quan tâm đến kiến trúc mô hình, lựa chọn loss function phù hợp, optimizer, tuning hyperparameters,... Nhưng có một thứ cũng khá quan trọng mà ta thường không quan tâm nhiều đó là hiệu suất xử lý dữ liệu đầu vào.

Multi-stage data preprocessing pipelines bao gồm loading, decoding hay augmentations là bước không ...

Thumbnail Image
347
5
5 1
Avatar HOneOhOne May 24th, 2:22 a.m.
13 phút đọc

Giáo án LangGraph 101: Vì sao cần LangGraph và những khái niệm cơ bản

Giới thiệu

Nói chung LangGraph là một thư viện được xây dựng dựa trên LLM và LangChain, giúp ta đơn giản hóa việc xây dựng các Agent tự động hóa các tác vụ trong thế giới thực.

Vì sao cần LangGraph?

Ta thấy rằng LangChain cho phép chúng ta xây dựng code bằng LCEL( LangChain Expression Language ). Về cơ bản LCEL xây dựng các Chain, để dễ hiểu ta hãy xét một Chain cơ bản sau:

Có thể thấy, một...

Thumbnail Image
151
1
3 0
Avatar Ben May 23rd, 7:34 a.m.
8 phút đọc

[LangGraph Series] Part 2: Bàn tay con người giữa cỗ máy - Human-In-The-Loop

Introduction Bối cảnh Human-in-the-loop (HITL) trong LangGraph thật ra khá là đơn giản, chính cái tên dường như đã giúp bạn hình dung phần nào về định nghĩa của nó. Khi chúng ta cần sự tích hợp của con người vào quá trình xử lý của mô hình AI, hay nói cách khác là ta đang cố gắng kiểm soát chúng, hiệu chỉnh và xác nhận kết quả. Điều này khá quan trọng trong các hệ thống sử dụng LangGraph, đặc b...

Thumbnail Image
257
1
0 1
Avatar Minh Tiến May 19th, 3:00 p.m.
10 phút đọc

SENATOR – Hành Trình Tìm và Vá Lỗ Hổng Kiến Thức Cho LLM

Dùng LLM để “chém gió” thì ổn, nhưng khi chuyển sang các lĩnh vực chuyên sâu như y khoa, tài chính hay nghiên cứu khoa học, model vẫn thường trả lời thiếu chính xác hoặc thậm chí sai lệch. Nguyên nhân chính là dù đã được pre‑train trên khối lượng dữ liệu khổng lồ, mô hình vẫn chưa nắm vững những mối liên hệ chuyên môn phức tạp. Kết quả là hallucination – tức chém bừa không có căn cứ – vẫn diễn ...

Thumbnail Image
182
2
0 0
Avatar Pham Thi Hong Anh May 19th, 9:39 a.m.
9 phút đọc

Giới thiệu Azure Data Factory: Công cụ ETL không thể thiếu trong Data Engineering (P1)

Chào các bạn, những chiến binh đang ngày đêm "vật lộn" với dữ liệu! Chắc hẳn không ít lần chúng ta tự hỏi: Dữ liệu thì ở tứ xứ, từ cái database SQL cổ lỗ sĩ trong công ty, file CSV vứt trên Blob Storage, cho đến mấy cái API "sang chảnh". Làm thế nào để "gom" tụi nó lại, "xào nấu" rồi "dọn ra mâm" cho sếp xem báo cáo, hay cho mấy em AI/ML "măm măm"? Đấy, Azure Data Factory (gọi tắt là ADF cho th...

Thumbnail Image
294
10
7 1
Avatar Hoàng Minh An May 17th, 10:14 a.m.
24 phút đọc

[Advanced-LLM] Reasoning LLM và Những Điều Thú Vị Mà Có Thể Bạn Đã Biết Phần 2.

Nếu bạn thấy hay, hãy upvote và bookmark cho mình nhé, chỉ đơn giản là động lực nhỏ để mình ngồi đọc và chia sẻ cùng mọi người những điều hay ho khi ngồi nghịch những tech mới thôi kk. Đây là một paper khá hay, nếu không đọc bài của mình thì cũng nên đọc qua thử paper nhé 😉, đâu mất gì đâu. Mở đầu. Ở bài viết phần 1 trước đó thì mình đã từng nói qua các khái niệm về khả năng của LLm như Reason...

Thumbnail Image
145
3
3 1
Avatar Trung Đức May 17th, 9:02 a.m.
14 phút đọc

Model Context Protocol: Sampling, Roots?

Mở đầu Nối tiếp bài viết trước, chúng ta sẽ cùng trao đổi 2 keywords tiếp theo liên quan đến MCP: Sampling và Roots. Let's do it

Sampling - Khi Server "nhờ" LLM sáng tạo thông qua Client Trong Model Context Protocol (MCP), Sampling là một tính năng mạnh mẽ cho phép các server yêu cầu các LLM tạo ra "completions" (ví dụ: hoàn thiện một đoạn văn bản, trả lời câu hỏi, tóm tắt nội dung) thông qua ...

Thumbnail Image
297
6
2 0
Avatar Minh Tiến May 16th, 9:27 a.m.
7 phút đọc

LlamaIndex Big Memory giúp các Agent "ghi nhớ như người thật"

Chào anh em, hôm nay mình sẽ đi sâu vào Memory API mới của LlamaIndex – một bước tiến lớn giúp agent AI có khả năng ghi nhớ và truy xuất thông tin cực kỳ linh hoạt, gần giống như trí nhớ con người. Đặc biệt, mình sẽ phân tích chi tiết từng loại Memory Block (plugin) để anh em hiểu rõ cách tận dụng tối đa sức mạnh của từng loại.

Tổng quan Memory API: Hai lớp bộ nhớ, nhiều plugin mạnh mẽ Memory ...

Thumbnail Image
443
7
7 0
Avatar Ben May 15th, 6:36 a.m.
16 phút đọc

[LangGraph Series] Part 1: Master of Graph với LangGraph trong Xây dựng Chatbot AI

Trong thế giới phát triển ứng dụng sử dụng Mô hình Ngôn ngữ Lớn (LLM), việc xây dựng các tác vụ phức tạp như chatbot, hệ thống phân tích văn bản hay trợ lý ảo đòi hỏi sự kiểm soát chặt chẽ và khả năng mở rộng linh hoạt. LangGraph, một thư viện mã nguồn mở từ LangChain, ra đời để giải quyết những thách thức này bằng cách cung cấp một framework dựa trên đồ thị, cho phép mô hình hóa và quản lý các...

Thumbnail Image
244
8
6 0
Avatar Trung Đức May 10th, 3:27 a.m.
24 phút đọc

Model Context Protocol: Resources, Prompts, Tools?

Mở đầu Tìm hiểu lý thuyết về Model Context Protocol (MCP), chắc hẳn các bạn sẽ gặp phải các keywords như Resources, Prompts, Tools, Sampling, Roots, Transports, ... Để có thể sử dụng MCP cho dự án của mình thì mình nghĩ càng cần thiết cho việc hiểu rõ các khái niệm này Không lòng vòng nữa, cùng trao đổi về các vấn đề này thôi. Gét gô

"Resources" - Nền tảng cung cấp ngữ cảnh đa dạng cho AI Reso...

Thumbnail Image
628
16
11 1
Avatar Hoàng Minh An May 7th, 9:13 a.m.
24 phút đọc

[Advanced-LLM] Reasoning LLM và Những Điều Thú Vị Mà Có Thể Bạn Đã Biết Phần 1.

Mở đầu. Halooo, được hơn tháng rồi mà chưa có idea gì mới để ngồi viết lách học một vài kiến thức mới (văn vở vậy thôi chứ thật ra do mình lười 🙂 và cũng bận bên dự án nữa), nên vẫn là nhân cơ hội nghỉ lễ và thời gian chill chill cuối tuần cũng như hưởng ứng mayfest nên là khả năng cao là trong tháng 5 này sẽ có một series nhỏ đâu đó có một vài bài gì đó nữa về Advanced LLM mình thấy hay chia s...

Thumbnail Image
530
8
8 1
Avatar Trung Đức May 5th, 1:18 p.m.
18 phút đọc

MCP là gì? Internet có nhiều rồi nhưng hiểu đơn giản thì nó là gì? Giao thức đang thay đổi cuộc chơi?

Mở đầu Trí tuệ nhân tạo (AI), đặc biệt là các mô hình ngôn ngữ lớn (LLMs), đã đạt được những bước tiến phi thường, mang đến khả năng trò chuyện, sáng tạo và giải quyết vấn đề ấn tượng. Tuy nhiên, khi chúng ta tương tác với AI trong các cuộc hội thoại kéo dài hoặc các tác vụ phức tạp gồm nhiều bước, một thách thức lớn thường xuất hiện: làm thế nào để AI "nhớ" được những gì đã xảy ra trước đó? Là...

Thành viên nổi bật
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí