Red Hat khuyến nghị các thí sinh tham gia kỳ thi này phải đạt được Nhà phát triển bản địa trên nền tảng đám mây được chứng nhận của Red Hat (EX378) trước khi thực hiện kỳ thi này, nhưng điều đó không bắt buộc.
Điểm học tập cho kỳ thi
Là một phần của bài kiểm tra này, bạn sẽ có thể thực hiện các nhiệm vụ sau:
- Hiểu và làm việc với các ứng dụng hướng sự kiện với API AMQ Streams.
- Biết cách gửi và đọc dữ liệu từ Kafka.
- Có thể phát triển các vi dịch vụ và các loại ứng dụng khác để chia sẻ dữ liệu với thông lượng cực cao và độ trễ thấp.
- Tìm hiểu hệ sinh thái và kiến trúc Kafka:
- Cách tạo, cấu hình và quản lý chủ đề.
- Cách định cấu hình hệ sinh thái để chia sẻ dữ liệu với thông lượng cực cao và độ trễ thấp.
- Cách mở rộng quy mô và đảm bảo thứ tự tin nhắn.
- Nén tin nhắn để loại bỏ các bản ghi cũ và cách thiết lập chúng.
- Cấu hình và sử dụng việc sao chép dữ liệu để kiểm soát khả năng chịu lỗi.
- Lưu giữ khối lượng lớn dữ liệu để truy cập ngay lập tức.
- Hiểu và làm việc với ứng dụng Quarkus được kết nối với Kafka
- Kết nối với Kafka bằng Tin nhắn phản hồi
- Kết nối với Apache Kafka bằng API gốc của nó
- Sản xuất và tiêu thụ tin nhắn cũng như triển khai các ứng dụng truyền dữ liệu và hướng sự kiện
- Làm quen với các thư viện phản ứng được Quarkus sử dụng: Java không đồng bộ hoặc API nhà xuất bản, RxJava hoặc API Reactor, Mutiny, v.v.
- Cung cấp và định cấu hình quyền truy cập vào cụm Kafka.
- Có thể truy cập các trình nghe bên ngoài của Kafka trên đám mây. Trong trường hợp Kubernetes hoặc Red Hat OpenShift, hãy kết nối qua cổng nút, bộ cân bằng tải và bên ngoài bằng cách sử dụng tuyến đường vào hoặc OpenShift.
- Hiểu cách định cấu hình bảo mật liên lạc giữa máy khách Kafka và cụm.
- Sản xuất và tiêu thụ tin nhắn cũng như triển khai các ứng dụng truyền dữ liệu và hướng sự kiện
- Hiểu và cung cấp cấu hình máy khách Kafka để bảo mật xác thực và ủy quyền cần thiết.
- Cung cấp và sử dụng lược đồ Red Hat Service Register để tách dữ liệu khỏi ứng dụng client, chia sẻ và quản lý các kiểu dữ liệu khi chạy:
- Hiểu và làm việc với các API Kafka Streams khác nhau như Streams DSL và API bộ xử lý.
- Định cấu hình và cung cấp Kafka SerDes (Serializer/Deserializer) thích hợp cho các bản ghi để hiện thực hóa dữ liệu một cách chính xác
- Có thể nhận dữ liệu từ một hoặc nhiều luồng đầu vào, thực hiện các thao tác phức tạp như ánh xạ, lọc hoặc nối, phân vùng lại và/hoặc nhóm và ghi kết quả vào một hoặc nhiều luồng đầu ra.
- Hiểu tính đối ngẫu của bảng luồng và thực hiện các hoạt động có trạng thái như nối, gộp và nối cửa sổ.
- Hiểu cách xác định và kết nối các bộ xử lý và máy biến áp tùy chỉnh để tương tác với các cửa hàng trạng thái bằng API Bộ xử lý.
- Hiểu thao tác sự kiện tạo ra các bộ sưu tập mới từ những bộ sưu tập hiện có và mô tả những thay đổi giữa chúng.
- Tích hợp dữ liệu với Kafka Connect:
- Hiểu cách Kafka Connect cung cấp khả năng truyền dữ liệu có độ tin cậy và khả năng mở rộng giữa Kafka và các hệ thống dữ liệu không đồng nhất khác.
- Hiểu cách Kafka Connect hỗ trợ chuyển đổi, chuyển đổi và quản lý bù trừ dữ liệu.
- Ứng dụng tính năng phát hiện và nắm bắt các thay đổi dữ liệu (CDC) với Debezium.
- Hiểu các chế độ chạy độc lập/phân tán khác nhau và các trường hợp sử dụng chúng.
- Sử dụng các đầu nối Luồng AMQ dựng sẵn.
- Hiểu và sử dụng các mẫu hướng sự kiện nâng cao trong các ứng dụng dựa trên Apache Kafka:
- Nhận biết và làm việc trong một ứng dụng có mẫu Tìm nguồn cung ứng sự kiện và CQRS
- Biết và làm việc với các kỹ thuật tiên tiến như các giao dịch kinh doanh lâu dài với sự điều phối Saga và các mẫu hộp thư đi để trao đổi dữ liệu giữa các dịch vụ khác nhau.
- Khắc phục sự cố phổ biến nhất trong các ứng dụng hướng sự kiện như duy trì thứ tự tin nhắn, số lần thử và tính tạm thời, xử lý các sự kiện trùng lặp, triển khai các trường hợp kiểm tra Luồng
Trong kỳ thi, bạn có thể được yêu cầu làm việc với một hoặc nhiều ứng dụng Java được viết sẵn. Bạn sẽ được yêu cầu sửa đổi một số phần của mã ứng dụng.