Image Cover
Avatar

Sun* AI Research Team

level partner

Nhà sáng tạo nội dung hạng Bạc

We're AI Research Team of R&D Lab @Sun Asterisk .Inc

Bài viết được ghim

Độ hot của Langchain

Langchain là một framework vô cùng hot hit trong thời gian gần đây. Nó được sinh ra để tận dụng sức mạnh của các mô hình ngôn ngữ lớn LLM như ChatGPT, LLaMA... để tạo ra các ứng dụng trong thực tế. Dù mới được phát triển cách đây khoảng 6 tháng (10/2022) và vẫn được cập nhật liên tục hàng ngày nhưng trên Github Langchain đã nhận được những tương tác khủng với lượng star lê...

Mayfest2023 ContentCreator
13.2K
56
24 8

Tất cả bài viết

Thumbnail Image
161
6
0 0
Avatar Trinh Quang Huy thg 5 18, 2022 3:49 SA
14 phút đọc

[Paper Explain] Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection

Giới thiệu Chắc hẳn mọi người mọi người khi nghiên cứu hoặc làm những ứng dụng về deep learning thì không còn xa lạ gì với khái niệm pre-training models. Điển hình ở đây chắc chắn là ImageNet pre-training, là một tập hợp các models pre-trained được đào tạo trên bộ dữ liệu ImageNet cực kỳ lớn. Nhưng rồi cái gì nó cũng sẽ có điểm yếu và dần phải được thay thế bởi những thứ mạnh mẽ hơn. Và đây chí...

Thumbnail Image
438
16
1 0
Avatar Trinh Quang thg 5 17, 2022 5:17 SA
13 phút đọc

[Paper Explain] A Simple Framework for Contrastive Learning of Visual Representations

Giới thiệu Trong những năm gần đây, chủ đề về các bài toán liên quan tới dữ liệu chưa được gắn nhãn đang được xem là xu hướng nghiên cứu, một số bài toán phổ biến như self-supervised learning, semi-supervised learning, active learning ... đã và đang đem lại rất nhiều thành quả cũng như là một hướng đi tiềm năng trong lĩnh vực nghiên cứu về công nghệ AI...

Thumbnail Image
104
4
0 0
Avatar Trần Đức Trung thg 5 16, 2022 6:41 SA
12 phút đọc

[Paper Explain] Two-phase training mitigates class imbalance for camera trap image classification with CNNs

Các bộ dữ liệu không cân bằng luôn là niềm đau trong mỗi bài toán học máy. Để giải quyết vấn đề này bài báo Two-phase training mitigates class imbalance for camera trap image classification with CNNs đã sử dụng đào tạo hai giai đoạn để tăng hiệu suất cho các lớp thiểu số và kết quả thu được khá khả quan khi không chỉ cải thiện độ chính xác trên các lớp thiểu số mà còn hạn chế việc giảm thiểu hi...

Thumbnail Image
2.6K
17
4 0
Avatar Trinh Quang Huy thg 5 16, 2022 3:00 SA
12 phút đọc

Receptive field là gì? Tại sao nó lại quan trọng đối với CNN?

Mở bài Trong tất cả các loại Neural Network, em thích nhất là Convolutional Neural Network. Vì vậy hôm nay em sẽ làm một bài văn miêu tả về Receptive field là gì, tại sao chúng ta cần phải hiểu nó nếu muốn hiểu rõ cách CNN hoạt động. 😂

Như chúng ta đã biết NN được lấy cảm hứng từ hệ thần kinh não bộ của con người với receptive field cũng không ngoại lệ, vậy nên mình sẽ lấy một ví dụ về hệ thốn...

Thumbnail Image
566
6
1 4
Avatar Bui Quang Manh thg 5 15, 2022 9:29 SA
7 phút đọc

Bộ đôi anh em nhà Fast Speech: Ông vua mới kế vị Tacotron ? (Phần 2)

Ở phần 1 chuỗi series về Fast Speech, bài viết Bộ đôi anh em nhà Fast Speech: Ông vua mới kế vị Tacotron ? mình đã giới thiệu sơ lược một số kiến trúc Text to Speech để chúng ta có thể nhìn rõ được những ưu và nhược điểm của mô hình này. Trong bài viết hôm nay, chúng ta cùng nhau phân tích đặc điểm rõ hơn những module, kiến trúc tạo nên ưu thế khác biệt cho mô hình.

Ở bài viết trước, chúng ta ...

Thumbnail Image
565
11
3 0
Avatar Bui Quang Manh thg 5 14, 2022 1:44 CH
8 phút đọc

Bộ đôi anh em nhà Fast Speech: Ông vua mới kế vị Tacotron ? (Phần 1)

Theo dòng thời gian, cuộc sống thay đổi, con người thay đổi. Mới bài trước còn khen Tacotron, Tacotron2 nhưng hôm nay lai khen hết lời bộ đôi anh em nhà Fast Speech. Nhưng quả thật anh em nhà Fast Speech được giới thiệu thông qua hai bài báo FastSpeech: Fast, Robust and Controllable Text to Speech và [FastSpeech 2: Fast and High-Quality End-to-End Text t...

Thumbnail Image
10.1K
14
2 0
Avatar Trung Đức thg 5 13, 2022 7:35 SA
9 phút đọc

Conda virtual environment: thực hành, làm việc với AI nói riêng một cách hiệu quả

Chắc hẳn với những ai đã và đang làm việc trong lĩnh vực AI không còn quá xa lạ với conda - một package manager và environment manager vô cùng hữu ích trong công việc. Đứng trên góc nhìn một người mới tiếp cận AI cũng như hiện tại cũng chưa có bài viết nào trên Viblo về chủ để này, vì vậy hôm nay mình xin phép chia sẻ một số thứ quan trọng về conda giúp ích cho mọi người trong công việc, giúp m...

Thumbnail Image
3.8K
20
5 0
Avatar Trinh Quang thg 5 13, 2022 3:36 SA
12 phút đọc

Tổng quan về Self-supervised representation learning (học tự giám sát)

Chào mọi người, dạo gần đây mình bắt đầu tìm hiểu và ứng dụng một phương pháp tiếp cận khá thú vị trong học máy. Nên mình cũng muốn chia sẽ một số kiến thức mà mình nghĩ là sẽ hữu ích với những bạn đang học tập và làm việc trong lĩnh vực AI/ML/DL nói chung cũng như đó là động lực để mình có thể tạo ra thêm nhiều những bài viết chất ...

Thumbnail Image
1.5K
5
2 0
Avatar Nguyen Tung Thanh thg 5 12, 2022 10:05 SA
12 phút đọc

Sau khi bỏ được anchor, trong tương lai object detection sẽ bỏ được hoàn toàn NMS?

Tóm tắt Thời gian gần đây, object detection đã có nhiều thay đổi về kiến trúc mô hình và các thành phần trong pipeline để hoạt động hiệu quả và bớt cồng kềnh hơn. Có thể kể đến một số thay đổi như: loại bỏ anchors, sử dụng đầu tách (decoupled head), kiến thức tiềm ẩn (implicit knowledge), các chiến lược gán nhãn (label assignment) ... và loại bỏ thành phần Non-maximum suppression (NMS). NMS có ...

Thumbnail Image
366
9
1 0
Avatar Trung Đức thg 5 12, 2022 7:21 SA
9 phút đọc

[Paper Explain]Sinh ảnh cùng với MixNMatch: độ chân thực đến đáng gờm

Tổng quan

Dạo một vòng mấy trang chia sẻ kiên thức để chống lười, đập vào mắt mình một bài viết với tiêu đề khá giật tít, mà kiểu nó sẽ áp dụng được trong rất nhiều bài toán. Vì vậy mạn phép đọc bài viết của tác giả sau đó dịch theo ý hiểu để diễn giải cho mọi người cùng thảo luận (Chứ cái này mình không có tự nghĩ ra :v) Bài viết giới thiệu về 1 kỹ thuật mang tên MixNMatch có nguồn gốc từ 1 p...

Thumbnail Image
2.6K
15
7 3
Avatar Nguyen Mai thg 5 12, 2022 6:26 SA
13 phút đọc

[Paper Explain] Thủ thuật cho các mạng CNN trong Classification

Lời mở đầu CNN (Convolutional Neural Network) lần đầu được ra mắt và áp dụng vào bài toán Classification (phân loại) là LeNet-5 vào năm 1989 của nhóm nghiên cứu của thầy Yann LeCun. Và với sự ra mắt tiếp đó của AlexNet vào năm 2012, chiến thắng cuộc thi phân loại ảnh ImageNet, CNN đã dần có được sự thống trị của mình trong các bài toán phân loại ảnh. Rất nhiều các kiến trúc CNN mới ra đời như V...

Thumbnail Image
2.8K
34
12 0
Avatar Phạm Văn Toàn thg 5 11, 2022 4:55 CH
23 phút đọc

Làm gì khi mô hình học máy thiếu dữ liệu có nhãn - Phần 1 - Tổng quan về Active Learning

Lời mở đầu Xin chào các bạn. Lâu lắm rồi mình mới quay lại viết một bài viết mới. Nhân dịp Viblo tổ chức sự kiện Mayfest2022, mình xin được chia sẻ một số bài viết về chủ đề Làm gì khi các mô hình học máy thiếu dữ liệu có nhãn. Như chúng ta đã biết, dữ liệu là linh hồn của mọi dự án học máy và sẽ chẳng thể có mô hình nào hoạt động tốt nếu như không có một tập dữ liệu chất lượng cả. Nhưng có một...

Thumbnail Image
269
7
1 2
Avatar Hieu Bui thg 5 10, 2022 12:10 CH
7 phút đọc

[Paper Explain] JoJoGAN for One Shot Face Stylization

Intro

Style transfer là một bài toán thuộc lĩnh vực computer vision nhận được sự chú ý của nhiều nhà nghiên cứu bởi tính ứng dụng cao trong các ứng dụng chỉnh sửa ảnh áp dụng công nghệ AI. Việc huấn luyện một mạng nơ ron để thực hiện style transfer là rất khó khăn bởi vấn đề tìm kiếm dữ liệu. Paper JoJoGAN mà mình sẽ giới thiệu ở đây đã đề xuất một thủ tục để finetune mạng Generator của S...

Thumbnail Image
796
9
1 0
Avatar Pham Thi Hong Anh thg 5 10, 2022 10:20 SA
3 phút đọc

Cleaning dữ liệu với một số package có sẵn, tại sao không nhỉ?

Xin chào các bạn, hôm nay mình sẽ chia sẻ một bài viết về chủ đề làm sạch dữ liệu, như mọi người cũng biết bước làm sạch dữ liệu cực kì quan trọng trước khi đưa vào phân tích dữ liệu hoặc huấn luyện mô hình. Mình tình cờ đọc được bài viết sử dụng thư viện có sẵn để làm sạch dữ liệu và mình thấy nó khá là hay và còn rút ngắn được thời gian làm sạch dữ liệu. Bây giờ chúng ta cùng nhau tìm hiểu ...

Thumbnail Image
333
7
0 0
Avatar Nguyen Mai thg 5 4, 2022 6:53 SA
12 phút đọc

[Paper Explain] Generalized Focal Loss V2: Learning Reliable Localization Quality Estimation for Dense Object Detection

Một số kiến thức cần biết Mình khuyến khích mọi người trước khi đọc bài này thì nên đọc về Generalized Focal Loss hoặc bài phân tích về Generalized Focal Loss (GFL) mà mình đã viết ở đây để có thể hiểu rõ được bài này. Tuy nhiên, mình vẫn sẽ tóm tắt lại các ý chính của GFL ở đây. Trong cấu trúc của các Dense Object Detector thường có 3 đầu ra: đầu ra cho Classification, Localization và một đầu ...

Thumbnail Image
812
7
3 1
Avatar Trung Đức thg 4 21, 2022 7:55 SA
8 phút đọc

Prunning model với Tensorflow API

Abstract Tiếp nối chuỗi Series nâng cao kiến thức bản thân về ML, DL, bài viết này mình xin phép chia sẻ một bài viết thuộc chủ để Pruning. Vẫn với lí do lướt Towards Data Science, Medium thì thấy bài viết hay quá nên chia sẻ cùng mọi người

Cùng với việc phát triển mạnh mẽ của công nghệ và dữ liệu đã thúc đẩy Deep Learning ngày càng lớn mạnh với những thành tựu đánh kinh nể, có những bài toán ...

Thumbnail Image
563
12
2 0
Avatar Trung Đức thg 3 7, 2022 9:45 SA
10 phút đọc

[Paper Explain] Contrastive Learning for Label-Efficient Semantic Segmentation

Lời mở đầu Tiếp nối việc phân tích paper, hôm nay mình sẽ cùng các bạn phân tích 1 paper liên quan dến bài toán Semantic Segmentation và phương pháp Contrastive learning. Đường dẫn bài báo gốc mình để ở đây Một số khái niệm cơ bản

  • Học tự giám sát (Self-supervised learning): Hiểu đơn giản là ngoài việc sử dụng các nhãn (labels) do chính cong người gán nhãn, mô hình sẽ sử dụng thêm 1 lượng lớn ...
Thumbnail Image
323
9
1 1
Avatar Trần Đức Trung thg 3 4, 2022 4:35 CH
8 phút đọc

Vẫn là về Layer-Wise Relevance Propagation nhưng mà ít chữ hơn

Để một mô hình học máy có thể khái quát hóa tốt, người ta cần đảm bảo rằng các quyết định của nó được hỗ trợ bởi các mẫu có ý nghĩa trong dữ liệu đầu vào. Tuy nhiên, điều kiện tiên quyết là để mô hình có thể tự giải thích, ví dụ: bằng cách làm nổi bật các đặc trưng đầu vào mà nó sử dụng để hỗ trợ dự đoán của nó thông qua một số phương pháp chẳng hạn như Layer-Wise Relevance Propagation. Mặc đã ...

Thumbnail Image
3.0K
13
3 7
Avatar Nguyen Tung Thanh thg 2 28, 2022 4:51 CH
13 phút đọc

[Paper Explain] YOLOX: đi ngược lại những người tiền nhiệm

[IMG]

Những nghiên cứu mới xuất hiện mới với tốc độ cực nhanh trong ngành trí tuệ nhân tạo nói chung và thị giác máy tính nói riêng. Nghiên cứu sau dựa trên nghiên cứu trước. Những kỹ thuật được chứng minh là hiệu quả qua nhiều năm khiến chúng ta ít khi nghĩ rằng chúng nên được bỏ đi. Thi thoảng mình cũng hay bắt gặp những bài báo "rethinking" (hay "revisiting")để xem xét lại vấn đề và mình nghĩ đi...

Thumbnail Image
6.9K
47
13 4
Avatar Nguyen Thanh Huyen thg 2 28, 2022 1:14 CH
21 phút đọc

Tản mạn về Generative models (Part 1): Các mô hình Autoencoder (VAEs)

Khai bút đầu xuân bằng cách điểm lại vài kiến thức cơ bản :vvvv

Hẳn những ai làm quen với Machine Learning và AI, và kể cả những người chưa từng tiếp xúc, và cả những người ngoài ngành IT này nữa, đều ít nhiều từng biết đến các AI tự vẽ tranh, tự chơi nhạc, tự viết text, hay nói đúng hơn là tự sinh (generative). trong những năm trở lại đây, các mô hình sinh đã đạt được những bước tiến vô cùng ...

Thành viên nổi bật
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí