Khám phá lĩnh vực quan trọng của nghiên cứu an toàn AI: mục tiêu, thách thức, phương pháp luận và ý nghĩa toàn cầu để đảm bảo phát triển AI có lợi.
Định hướng Tương lai: Hướng dẫn Toàn diện về Nghiên cứu An toàn Trí tuệ Nhân tạo
Trí tuệ nhân tạo (AI) đang nhanh chóng biến đổi thế giới của chúng ta, hứa hẹn những tiến bộ chưa từng có trong nhiều lĩnh vực, từ chăm sóc sức khỏe và giao thông vận tải đến giáo dục và bền vững môi trường. Tuy nhiên, bên cạnh tiềm năng to lớn, AI cũng đi kèm những rủi ro đáng kể đòi hỏi sự cân nhắc cẩn thận và giảm thiểu một cách chủ động. Đây chính là lúc nghiên cứu an toàn AI phát huy vai trò.
Nghiên cứu An toàn AI là gì?
Nghiên cứu an toàn AI là một lĩnh vực đa ngành nhằm đảm bảo các hệ thống AI mang lại lợi ích, đáng tin cậy và phù hợp với các giá trị của con người. Lĩnh vực này bao gồm một loạt các lĩnh vực nghiên cứu tập trung vào việc tìm hiểu và giảm thiểu các rủi ro tiềm ẩn liên quan đến AI tiên tiến, bao gồm:
- Tương hợp AI (AI Alignment): Đảm bảo các hệ thống AI theo đuổi các mục tiêu phù hợp với ý định và giá trị của con người.
- Tính bền vững (Robustness): Phát triển các hệ thống AI có khả năng chống chọi lại các cuộc tấn công đối nghịch, các đầu vào bất ngờ và môi trường thay đổi.
- Khả năng kiểm soát (Controllability): Thiết kế các hệ thống AI có thể được con người kiểm soát và quản lý hiệu quả, ngay cả khi chúng trở nên phức tạp hơn.
- Tính minh bạch và Diễn giải được (Transparency and Interpretability): Hiểu cách các hệ thống AI đưa ra quyết định và làm cho các quy trình lý luận của chúng trở nên minh bạch đối với con người.
- Các cân nhắc về Đạo đức (Ethical Considerations): Giải quyết các tác động đạo đức của AI, bao gồm các vấn đề về thiên vị, công bằng và trách nhiệm giải trình.
Cuối cùng, mục tiêu của nghiên cứu an toàn AI là tối đa hóa lợi ích của AI trong khi giảm thiểu rủi ro, đảm bảo rằng AI phục vụ cho những lợi ích tốt nhất của nhân loại.
Tại sao Nghiên cứu An toàn AI lại Quan trọng?
Tầm quan trọng của nghiên cứu an toàn AI không thể bị xem nhẹ. Khi các hệ thống AI trở nên mạnh mẽ và tự chủ hơn, hậu quả tiềm tàng của các hành vi không mong muốn hoặc có hại ngày càng trở nên nghiêm trọng. Hãy xem xét các kịch bản sau:
- Phương tiện tự hành: Nếu hệ thống AI của một phương tiện tự hành không được điều chỉnh phù hợp với các giá trị của con người, nó có thể đưa ra các quyết định ưu tiên hiệu quả hơn an toàn, có khả năng dẫn đến tai nạn.
- AI trong Y tế: Các thuật toán AI thiên vị được sử dụng trong chẩn đoán y tế có thể chẩn đoán sai hoặc điều trị sai một cách không tương xứng cho bệnh nhân từ các nhóm nhân khẩu học nhất định.
- Thị trường tài chính: Các tương tác không lường trước được giữa các thuật toán giao dịch do AI điều khiển có thể gây bất ổn thị trường tài chính, dẫn đến khủng hoảng kinh tế.
- Ứng dụng quân sự: Các hệ thống vũ khí tự động thiếu các cơ chế an toàn phù hợp có thể làm leo thang xung đột và dẫn đến thương vong ngoài ý muốn.
Những ví dụ này nhấn mạnh sự cần thiết cấp bách của nghiên cứu an toàn AI chủ động để dự đoán và giảm thiểu các rủi ro tiềm ẩn trước khi chúng thành hiện thực. Hơn nữa, việc đảm bảo an toàn AI không chỉ là ngăn chặn tác hại; mà còn là nuôi dưỡng niềm tin và thúc đẩy việc áp dụng rộng rãi các công nghệ AI có thể mang lại lợi ích cho toàn xã hội.
Các Lĩnh vực Chính trong Nghiên cứu An toàn AI
Nghiên cứu an toàn AI là một lĩnh vực rộng lớn và liên ngành, bao gồm nhiều lĩnh vực nghiên cứu khác nhau. Dưới đây là một số lĩnh vực trọng tâm:
1. Tương hợp AI (AI Alignment)
Tương hợp AI được cho là thách thức cơ bản nhất trong nghiên cứu an toàn AI. Nó tập trung vào việc đảm bảo các hệ thống AI theo đuổi các mục tiêu phù hợp với ý định và giá trị của con người. Đây là một vấn đề phức tạp vì rất khó để định nghĩa chính xác các giá trị của con người và chuyển chúng thành các mục tiêu chính thức mà hệ thống AI có thể hiểu và tối ưu hóa. Một số cách tiếp cận đang được khám phá, bao gồm:
- Học giá trị (Value Learning): Phát triển các hệ thống AI có thể học các giá trị của con người từ việc quan sát, phản hồi hoặc hướng dẫn. Ví dụ, một trợ lý AI có thể học sở thích của người dùng về việc lên lịch họp bằng cách quan sát hành vi trong quá khứ và đặt câu hỏi làm rõ.
- Học tăng cường nghịch đảo (Inverse Reinforcement Learning - IRL): Suy ra các mục tiêu và phần thưởng cơ bản của một tác nhân (ví dụ: con người) bằng cách quan sát hành vi của nó. Cách tiếp cận này được sử dụng trong robot học để huấn luyện robot thực hiện các nhiệm vụ bằng cách quan sát các màn trình diễn của con người.
- AI Hợp tác (Cooperative AI): Thiết kế các hệ thống AI có thể hợp tác hiệu quả với con người và các hệ thống AI khác để đạt được các mục tiêu chung. Điều này rất quan trọng đối với các nhiệm vụ phức tạp như khám phá khoa học, nơi AI có thể tăng cường khả năng của con người.
- Xác minh chính thức (Formal Verification): Sử dụng các kỹ thuật toán học để chứng minh một cách chính thức rằng một hệ thống AI thỏa mãn các thuộc tính an toàn nhất định. Điều này đặc biệt quan trọng đối với các ứng dụng quan trọng về an toàn như máy bay tự hành.
2. Tính Bền vững (Robustness)
Tính bền vững đề cập đến khả năng của một hệ thống AI hoạt động đáng tin cậy và nhất quán ngay cả khi đối mặt với các đầu vào không mong muốn, các cuộc tấn công đối nghịch hoặc môi trường thay đổi. Các hệ thống AI có thể dễ bị tổn thương một cách đáng ngạc nhiên trước những thay đổi nhỏ trong đầu vào, có thể dẫn đến những thất bại thảm khốc. Ví dụ, một chiếc xe tự lái có thể hiểu sai biển báo dừng có dán một miếng sticker nhỏ, dẫn đến tai nạn. Nghiên cứu về tính bền vững nhằm phát triển các hệ thống AI có khả năng chống chọi tốt hơn với các loại tấn công này. Các lĩnh vực nghiên cứu chính bao gồm:
- Huấn luyện đối nghịch (Adversarial Training): Huấn luyện các hệ thống AI để chống lại các ví dụ đối nghịch bằng cách cho chúng tiếp xúc với một loạt các đầu vào bị nhiễu loạn trong quá trình huấn luyện.
- Xác thực đầu vào (Input Validation): Phát triển các phương pháp phát hiện và từ chối các đầu vào không hợp lệ hoặc độc hại trước khi chúng có thể ảnh hưởng đến hành vi của hệ thống AI.
- Định lượng độ không chắc chắn (Uncertainty Quantification): Ước tính độ không chắc chắn trong các dự đoán của hệ thống AI và sử dụng thông tin này để đưa ra các quyết định bền vững hơn. Ví dụ, nếu một hệ thống AI không chắc chắn về sự hiện diện của một đối tượng trong ảnh, nó có thể chuyển cho người điều hành để xác nhận.
- Phát hiện bất thường (Anomaly Detection): Xác định các mẫu bất thường hoặc không mong muốn trong dữ liệu có thể chỉ ra sự cố với hệ thống AI hoặc môi trường của nó.
3. Khả năng Kiểm soát (Controllability)
Khả năng kiểm soát đề cập đến khả năng của con người trong việc kiểm soát và quản lý hiệu quả các hệ thống AI, ngay cả khi chúng trở nên phức tạp và tự chủ hơn. Điều này rất quan trọng để đảm bảo rằng các hệ thống AI luôn phù hợp với các giá trị của con người và không đi chệch khỏi mục đích đã định. Nghiên cứu về khả năng kiểm soát khám phá nhiều cách tiếp cận khác nhau, bao gồm:
- Khả năng gián đoạn (Interruptibility): Thiết kế các hệ thống AI có thể bị con người làm gián đoạn hoặc tắt một cách an toàn trong các trường hợp khẩn cấp.
- AI có thể giải thích (Explainable AI - XAI): Phát triển các hệ thống AI có thể giải thích các quy trình lý luận của chúng cho con người, cho phép con người hiểu và sửa chữa hành vi của chúng.
- Hệ thống có sự tham gia của con người (Human-in-the-Loop Systems): Thiết kế các hệ thống AI hoạt động hợp tác với con người, cho phép con người giám sát và hướng dẫn hành động của chúng.
- Khám phá an toàn (Safe Exploration): Phát triển các hệ thống AI có thể khám phá môi trường của chúng một cách an toàn mà không gây hại hoặc gây ra hậu quả không mong muốn.
4. Tính Minh bạch và Diễn giải được (Transparency and Interpretability)
Tính minh bạch và khả năng diễn giải là điều cần thiết để xây dựng lòng tin vào các hệ thống AI và đảm bảo chúng được sử dụng một cách có trách nhiệm. Khi các hệ thống AI đưa ra quyết định ảnh hưởng đến cuộc sống của con người, điều quan trọng là phải hiểu những quyết định đó được đưa ra như thế nào. Điều này đặc biệt quan trọng trong các lĩnh vực như chăm sóc sức khỏe, tài chính và tư pháp hình sự. Nghiên cứu về tính minh bạch và khả năng diễn giải nhằm phát triển các hệ thống AI dễ hiểu và dễ giải thích hơn đối với con người. Các lĩnh vực nghiên cứu chính bao gồm:
- Phân tích tầm quan trọng của đặc trưng (Feature Importance Analysis): Xác định các đặc trưng quan trọng nhất đối với các dự đoán của hệ thống AI.
- Trích xuất quy tắc (Rule Extraction): Trích xuất các quy tắc mà con người có thể đọc được từ các mô hình AI để giải thích hành vi của chúng.
- Kỹ thuật trực quan hóa (Visualization Techniques): Phát triển các công cụ trực quan hóa cho phép con người khám phá và hiểu được hoạt động bên trong của các hệ thống AI.
- Giải thích phản thực tế (Counterfactual Explanations): Tạo ra các giải thích mô tả những gì cần thay đổi trong đầu vào để hệ thống AI đưa ra một dự đoán khác.
5. Các Cân nhắc về Đạo đức
Các cân nhắc về đạo đức là trọng tâm của nghiên cứu an toàn AI. Các hệ thống AI có khả năng khuếch đại các thành kiến hiện có, phân biệt đối xử với các nhóm nhất định và làm suy yếu quyền tự chủ của con người. Giải quyết những thách thức đạo đức này đòi hỏi phải xem xét cẩn thận các giá trị và nguyên tắc nên định hướng cho việc phát triển và triển khai AI. Các lĩnh vực nghiên cứu chính bao gồm:
- Phát hiện và Giảm thiểu Thiên vị (Bias Detection and Mitigation): Phát triển các phương pháp để xác định và giảm thiểu thiên vị trong các thuật toán và bộ dữ liệu AI.
- AI nhận thức về Công bằng (Fairness-Aware AI): Thiết kế các hệ thống AI công bằng và bình đẳng với tất cả các cá nhân, bất kể chủng tộc, giới tính hoặc các đặc điểm được bảo vệ khác của họ.
- AI bảo vệ Quyền riêng tư (Privacy-Preserving AI): Phát triển các hệ thống AI có thể bảo vệ quyền riêng tư của cá nhân trong khi vẫn cung cấp các dịch vụ hữu ích.
- Trách nhiệm giải trình và Trách nhiệm (Accountability and Responsibility): Thiết lập các ranh giới rõ ràng về trách nhiệm giải trình và trách nhiệm đối với các hành động của hệ thống AI.
Quan điểm Toàn cầu về An toàn AI
An toàn AI là một thách thức toàn cầu đòi hỏi sự hợp tác quốc tế. Các quốc gia và khu vực khác nhau có những quan điểm khác nhau về các tác động đạo đức và xã hội của AI, và điều quan trọng là phải tính đến những quan điểm đa dạng này khi phát triển các tiêu chuẩn và hướng dẫn về an toàn AI. Ví dụ:
- Châu Âu: Liên minh châu Âu đã đi đầu trong việc điều tiết AI, với mục tiêu thúc đẩy phát triển AI có trách nhiệm và đạo đức. Đạo luật AI do EU đề xuất đưa ra một khuôn khổ toàn diện để điều chỉnh các hệ thống AI dựa trên mức độ rủi ro của chúng.
- Hoa Kỳ: Hoa Kỳ đã có cách tiếp cận ít can thiệp hơn đối với quy định về AI, tập trung vào việc thúc đẩy đổi mới và tăng trưởng kinh tế. Tuy nhiên, ngày càng có nhiều sự thừa nhận về sự cần thiết của các tiêu chuẩn và hướng dẫn về an toàn AI.
- Trung Quốc: Trung Quốc đang đầu tư mạnh vào nghiên cứu và phát triển AI, với mục tiêu trở thành nhà lãnh đạo toàn cầu về AI. Trung Quốc cũng đã nhấn mạnh tầm quan trọng của đạo đức và quản trị AI.
- Các nước đang phát triển: Các nước đang phát triển phải đối mặt với những thách thức và cơ hội độc đáo trong thời đại AI. AI có tiềm năng giải quyết một số thách thức cấp bách nhất mà các nước đang phát triển phải đối mặt, chẳng hạn như đói nghèo, bệnh tật và biến đổi khí hậu. Tuy nhiên, điều quan trọng là phải đảm bảo rằng AI được phát triển và triển khai theo cách mang lại lợi ích cho tất cả các thành viên trong xã hội.
Các tổ chức quốc tế như Liên Hợp Quốc và OECD cũng đang đóng vai trò trong việc thúc đẩy hợp tác toàn cầu về an toàn và đạo đức AI. Các tổ chức này cung cấp một nền tảng cho các chính phủ, nhà nghiên cứu và các nhà lãnh đạo ngành công nghiệp để chia sẻ các phương pháp hay nhất và phát triển các tiêu chuẩn chung.
Những Thách thức trong Nghiên cứu An toàn AI
Nghiên cứu an toàn AI đối mặt với nhiều thách thức, bao gồm:
- Định nghĩa các Giá trị Con người: Rất khó để định nghĩa chính xác các giá trị của con người và chuyển chúng thành các mục tiêu chính thức mà hệ thống AI có thể hiểu và tối ưu hóa. Các giá trị của con người thường phức tạp, tinh tế và phụ thuộc vào ngữ cảnh, khiến chúng khó có thể được ghi lại bằng một ngôn ngữ chính thức.
- Dự đoán Năng lực AI trong Tương lai: Rất khó để dự đoán các hệ thống AI sẽ có khả năng làm gì trong tương lai. Khi công nghệ AI phát triển, các rủi ro và thách thức mới có thể xuất hiện mà khó có thể lường trước được.
- Điều phối và Hợp tác: Nghiên cứu an toàn AI đòi hỏi sự điều phối và hợp tác giữa nhiều ngành, bao gồm khoa học máy tính, toán học, triết học, đạo đức và luật. Điều quan trọng nữa là thúc đẩy sự hợp tác giữa các nhà nghiên cứu, các nhà lãnh đạo ngành, các nhà hoạch định chính sách và công chúng.
- Tài trợ và Nguồn lực: Nghiên cứu an toàn AI thường bị thiếu vốn và nguồn lực so với các lĩnh vực nghiên cứu AI khác. Điều này một phần là do nghiên cứu an toàn AI là một lĩnh vực tương đối mới, và tầm quan trọng của nó vẫn chưa được công nhận rộng rãi.
- Vấn đề Tương hợp ở Quy mô lớn: Mở rộng các kỹ thuật tương hợp cho các hệ thống AI ngày càng phức tạp và tự chủ là một trở ngại đáng kể. Các kỹ thuật hoạt động tốt cho các tác nhân AI đơn giản có thể không hiệu quả đối với các hệ thống AI tiên tiến có khả năng lý luận và lập kế hoạch phức tạp.
Vai trò của các Bên liên quan
Đảm bảo an toàn AI là một trách nhiệm chung đòi hỏi sự tham gia của nhiều bên liên quan, bao gồm:
- Các nhà nghiên cứu: Các nhà nghiên cứu đóng một vai trò quan trọng trong việc phát triển các kỹ thuật an toàn AI mới và trong việc tìm hiểu các rủi ro tiềm tàng của AI.
- Các nhà lãnh đạo ngành: Các nhà lãnh đạo ngành có trách nhiệm phát triển và triển khai các hệ thống AI một cách có trách nhiệm và đạo đức. Họ nên đầu tư vào nghiên cứu an toàn AI và áp dụng các phương pháp hay nhất về an toàn AI.
- Các nhà hoạch định chính sách: Các nhà hoạch định chính sách có vai trò trong việc điều tiết AI và thiết lập các tiêu chuẩn về an toàn AI. Họ nên tạo ra một môi trường pháp lý khuyến khích sự phát triển AI có trách nhiệm đồng thời bảo vệ công chúng khỏi tác hại.
- Công chúng: Công chúng có quyền được thông tin về các rủi ro và lợi ích tiềm tàng của AI và tham gia vào các cuộc thảo luận về chính sách AI. Nhận thức và sự tham gia của công chúng là điều cần thiết để đảm bảo rằng AI được phát triển và triển khai theo cách mang lại lợi ích cho tất cả các thành viên trong xã hội.
Các ví dụ về Nghiên cứu An toàn AI trong Thực tế
Dưới đây là một số ví dụ về nghiên cứu an toàn AI được áp dụng trong các kịch bản thực tế:
- Nỗ lực Tương hợp của OpenAI: OpenAI đang tích cực nghiên cứu các kỹ thuật tương hợp khác nhau, bao gồm học tăng cường từ phản hồi của con người (RLHF), để huấn luyện các hệ thống AI phù hợp hơn với sở thích của con người. Công việc của họ trên các mô hình ngôn ngữ lớn như GPT-4 bao gồm các chiến lược kiểm tra an toàn và giảm thiểu sâu rộng.
- Nghiên cứu An toàn của DeepMind: DeepMind đã tiến hành nghiên cứu về khả năng gián đoạn, khám phá an toàn và tính bền vững trước các cuộc tấn công đối nghịch. Họ cũng đã phát triển các công cụ để trực quan hóa và hiểu hành vi của các hệ thống AI.
- Đối tác về AI (The Partnership on AI): Đối tác về AI là một tổ chức đa bên quy tụ các nhà nghiên cứu, các nhà lãnh đạo ngành và các tổ chức xã hội dân sự để thúc đẩy sự phát triển AI có trách nhiệm. Họ đã phát triển một bộ nguyên tắc an toàn AI và đang thực hiện các sáng kiến khác nhau để thúc đẩy nghiên cứu an toàn AI.
- Các Phòng Nghiên cứu Học thuật: Nhiều phòng nghiên cứu học thuật trên khắp thế giới chuyên về nghiên cứu an toàn AI. Các phòng thí nghiệm này đang tiến hành nghiên cứu về nhiều chủ đề, bao gồm tương hợp AI, tính bền vững, tính minh bạch và đạo đức. Các ví dụ bao gồm Trung tâm AI Tương thích với Con người tại UC Berkeley và Viện Tương lai Nhân loại tại Đại học Oxford.
Thông tin chi tiết có thể hành động cho Cá nhân và Tổ chức
Dưới đây là một số thông tin chi tiết có thể hành động cho các cá nhân và tổ chức quan tâm đến việc thúc đẩy an toàn AI:
Đối với Cá nhân:
- Tự trang bị kiến thức: Tìm hiểu thêm về nghiên cứu an toàn AI cũng như các rủi ro và lợi ích tiềm tàng của AI. Có rất nhiều tài nguyên trực tuyến, bao gồm các bài báo nghiên cứu, bài viết và các khóa học.
- Tham gia thảo luận: Tham gia vào các cuộc thảo luận về chính sách AI và ủng hộ việc phát triển AI có trách nhiệm. Bạn có thể liên hệ với các quan chức được bầu, tham gia các diễn đàn trực tuyến hoặc tham dự các cuộc họp công khai.
- Hỗ trợ Nghiên cứu An toàn AI: Quyên góp cho các tổ chức đang thực hiện nghiên cứu an toàn AI hoặc tình nguyện dành thời gian của bạn để giúp đỡ những nỗ lực của họ.
- Lưu ý về Thiên vị trong AI: Khi sử dụng các hệ thống AI, hãy nhận thức về khả năng có thiên vị và thực hiện các bước để giảm thiểu nó. Ví dụ, bạn có thể kiểm tra tính chính xác của nội dung do AI tạo ra hoặc đặt câu hỏi về các quyết định được đưa ra bởi các thuật toán AI.
Đối với Tổ chức:
- Đầu tư vào Nghiên cứu An toàn AI: Phân bổ nguồn lực cho nghiên cứu và phát triển an toàn AI. Điều này có thể bao gồm tài trợ cho các nhóm nghiên cứu nội bộ, hợp tác với các phòng thí nghiệm học thuật hoặc hỗ trợ các tổ chức nghiên cứu bên ngoài.
- Áp dụng các Phương pháp Tốt nhất về An toàn AI: Thực hiện các phương pháp tốt nhất về an toàn AI trong tổ chức của bạn, chẳng hạn như tiến hành đánh giá rủi ro, phát triển các hướng dẫn đạo đức, và đảm bảo tính minh bạch và trách nhiệm giải trình.
- Đào tạo Nhân viên của bạn: Đào tạo nhân viên của bạn về các nguyên tắc và phương pháp tốt nhất về an toàn AI. Điều này sẽ giúp họ phát triển và triển khai các hệ thống AI một cách có trách nhiệm và đạo đức.
- Hợp tác với các Tổ chức khác: Hợp tác với các tổ chức khác để chia sẻ các phương pháp tốt nhất và phát triển các tiêu chuẩn chung về an toàn AI. Điều này có thể bao gồm việc tham gia vào các hiệp hội ngành, tham gia vào các quan hệ đối tác nghiên cứu hoặc đóng góp vào các dự án mã nguồn mở.
- Thúc đẩy Tính minh bạch: Hãy minh bạch về cách thức hoạt động và cách sử dụng các hệ thống AI của bạn. Điều này sẽ giúp xây dựng lòng tin với công chúng và đảm bảo AI được sử dụng một cách có trách nhiệm.
- Xem xét các Tác động Lâu dài: Khi phát triển và triển khai các hệ thống AI, hãy xem xét các tác động lâu dài đối với xã hội và môi trường. Tránh phát triển các hệ thống AI có thể gây ra hậu quả không mong muốn hoặc có hại.
Kết luận
Nghiên cứu an toàn AI là một lĩnh vực quan trọng thiết yếu để đảm bảo AI mang lại lợi ích cho nhân loại. Bằng cách giải quyết các thách thức về tương hợp, tính bền vững, khả năng kiểm soát, tính minh bạch và đạo đức của AI, chúng ta có thể tối đa hóa tiềm năng của AI đồng thời giảm thiểu rủi ro. Điều này đòi hỏi nỗ lực hợp tác từ các nhà nghiên cứu, các nhà lãnh đạo ngành, các nhà hoạch định chính sách và công chúng. Bằng cách làm việc cùng nhau, chúng ta có thể định hướng tương lai của AI và đảm bảo nó phục vụ những lợi ích tốt nhất của nhân loại. Hành trình hướng tới AI an toàn và có lợi là một cuộc đua marathon, không phải là một cuộc chạy nước rút, và nỗ lực bền bỉ là rất quan trọng để thành công. Khi AI tiếp tục phát triển, sự hiểu biết và giảm thiểu các rủi ro tiềm ẩn của chúng ta cũng phải phát triển theo. Học hỏi và thích ứng liên tục là điều tối quan trọng trong bối cảnh luôn thay đổi này.