สำรวจข้อพิจารณาทางจริยธรรมที่สำคัญเกี่ยวกับการพัฒนาและการปรับใช้ AI ตรวจสอบอคติ ความรับผิดชอบ ความโปร่งใส และอนาคตของจริยธรรม AI ในระดับโลก
การสำรวจภูมิทัศน์ทางจริยธรรมของปัญญาประดิษฐ์: มุมมองระดับโลก
ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลกของเราอย่างรวดเร็ว ส่งผลกระทบต่อทุกสิ่งตั้งแต่การดูแลสุขภาพและการเงินไปจนถึงการคมนาคมและความบันเทิง ในขณะที่ AI มอบศักยภาพมหาศาลสำหรับความก้าวหน้าและนวัตกรรม การพัฒนาและการปรับใช้ AI ก็ก่อให้เกิดคำถามทางจริยธรรมที่ลึกซึ้งซึ่งต้องการการพิจารณาอย่างรอบคอบ บล็อกโพสต์นี้จะให้ภาพรวมที่ครอบคลุมเกี่ยวกับข้อพิจารณาทางจริยธรรมที่สำคัญเกี่ยวกับ AI โดยตรวจสอบความท้าทาย โอกาส และการสนทนาระดับโลกที่กำลังกำหนดอนาคตของจริยธรรม AI
ความเร่งด่วนของจริยธรรม AI
ความเร่งด่วนเกี่ยวกับจริยธรรม AI เกิดจากศักยภาพของระบบ AI ที่จะสืบทอดและขยายอคติทางสังคมที่มีอยู่เดิม ซึ่งนำไปสู่ผลลัพธ์ที่ไม่เป็นธรรมหรือเป็นการเลือกปฏิบัติ นอกจากนี้ ความเป็นอิสระที่เพิ่มขึ้นของระบบ AI ยังก่อให้เกิดความกังวลเกี่ยวกับความรับผิดชอบ ความโปร่งใส และโอกาสที่จะเกิดผลลัพธ์ที่ไม่ได้ตั้งใจ การเพิกเฉยต่อข้อพิจารณาทางจริยธรรมเหล่านี้อาจทำลายความไว้วางใจของสาธารณชนที่มีต่อ AI และขัดขวางการพัฒนาและการนำไปใช้อย่างรับผิดชอบ
ลองพิจารณาตัวอย่างเทคโนโลยีการจดจำใบหน้า แม้ว่าจะสามารถใช้เพื่อวัตถุประสงค์ด้านความปลอดภัยได้ แต่ผลการศึกษาพบว่าระบบเหล่านี้มักแสดงอคติทางเชื้อชาติและเพศอย่างมีนัยสำคัญ นำไปสู่การระบุตัวตนที่ผิดพลาดและอาจนำไปสู่การปฏิบัติที่เลือกปฏิบัติ สิ่งนี้เน้นย้ำถึงความจำเป็นอย่างยิ่งสำหรับกรอบจริยธรรมที่รับประกันความเป็นธรรมและป้องกันอันตราย
ข้อพิจารณาทางจริยธรรมที่สำคัญใน AI
1. อคติและความเป็นธรรม
อคติใน AI อาจกล่าวได้ว่าเป็นความท้าทายทางจริยธรรมที่เร่งด่วนที่สุด ระบบ AI เรียนรู้จากข้อมูล และหากข้อมูลนั้นสะท้อนถึงอคติทางสังคมที่มีอยู่ ระบบ AI ก็จะสืบทอดและขยายอคติเหล่านั้นอย่างหลีกเลี่ยงไม่ได้ ซึ่งอาจนำไปสู่ผลลัพธ์ที่เลือกปฏิบัติในด้านต่างๆ เช่น การสมัครสินเชื่อ กระบวนการจ้างงาน และแม้แต่กระบวนการยุติธรรมทางอาญา
ตัวอย่างของอคติใน AI:
- อคติทางเพศในการประมวลผลภาษาธรรมชาติ: โมเดล AI ที่ฝึกฝนจากชุดข้อมูลข้อความที่มีอคติอาจแสดงทัศนคติเหมารวมทางเพศ เช่น การเชื่อมโยงอาชีพบางอย่างกับเพศใดเพศหนึ่งมากกว่าอีกเพศหนึ่ง
- อคติทางเชื้อชาติในการจดจำใบหน้า: ดังที่ได้กล่าวไว้ก่อนหน้านี้ ระบบจดจำใบหน้าแสดงให้เห็นว่ามีความแม่นยำน้อยกว่าสำหรับคนผิวสี ซึ่งนำไปสู่การระบุตัวตนที่ผิดพลาดและการกล่าวหาที่ไม่ถูกต้อง
- อคติในการสมัครสินเชื่อ: อัลกอริทึม AI ที่ใช้ในการประเมินความน่าเชื่อถือทางเครดิตอาจเลือกปฏิบัติต่อกลุ่มประชากรบางกลุ่มโดยไม่ได้ตั้งใจเนื่องจากอคติในอดีตของข้อมูลเครดิต
การลดอคติ: การจัดการกับอคติใน AI ต้องใช้วิธีการที่หลากหลาย ซึ่งรวมถึง:
- การเลือกและการประมวลผลข้อมูลเบื้องต้นอย่างระมัดระวัง: การทำให้แน่ใจว่าข้อมูลที่ใช้ฝึกฝนมีความเป็นตัวแทนและปราศจากอคติเป็นสิ่งสำคัญอย่างยิ่ง ซึ่งอาจรวมถึงการสุ่มตัวอย่างกลุ่มที่ด้อยโอกาสให้มากขึ้น (oversampling) หรือใช้เทคนิคเพื่อลดอคติในข้อมูล
- การตรวจสอบอัลกอริทึม: การตรวจสอบระบบ AI อย่างสม่ำเสมอเพื่อระบุและแก้ไขอคติ
- ปัญญาประดิษฐ์ที่อธิบายได้ (Explainable AI - XAI): การพัฒนาโมเดล AI ที่โปร่งใสและสามารถอธิบายได้ ทำให้มนุษย์สามารถเข้าใจว่าการตัดสินใจเกิดขึ้นได้อย่างไรและระบุอคติที่อาจเกิดขึ้นได้
- ทีมพัฒนาที่หลากหลาย: การทำให้แน่ใจว่าทีมพัฒนา AI มีความหลากหลายสามารถช่วยระบุและจัดการกับอคติที่อาจเกิดขึ้นจากมุมมองที่แตกต่างกัน
2. ภาระรับผิดชอบและความรับผิด
เมื่อระบบ AI มีความเป็นอิสระมากขึ้น การกำหนดภาระรับผิดชอบต่อการกระทำของมันก็ซับซ้อนขึ้นเรื่อยๆ เมื่อระบบ AI ทำผิดพลาดหรือก่อให้เกิดอันตราย ใครคือผู้รับผิดชอบ? นักพัฒนา? ผู้ปรับใช้? ผู้ใช้? หรือตัว AI เอง?
ความท้าทายด้านภาระรับผิดชอบ: การสร้างขอบเขตความรับผิดชอบที่ชัดเจนเป็นสิ่งจำเป็นสำหรับการสร้างความไว้วางใจใน AI ซึ่งต้องอาศัยการพัฒนากรอบกฎหมายและข้อบังคับที่จัดการกับความท้าทายเฉพาะที่เกิดจาก AI กรอบการทำงานเหล่านี้ต้องพิจารณา:
- การกำหนดความรับผิด: การพิจารณาว่าใครต้องรับผิดเมื่อระบบ AI ก่อให้เกิดอันตราย
- การจัดตั้งกลไกการกำกับดูแล: การสร้างหน่วยงานกำกับดูแลเพื่อติดตามการพัฒนาและการปรับใช้ระบบ AI
- การส่งเสริมการออกแบบอย่างมีจริยธรรม: การสนับสนุนให้นักพัฒนาออกแบบระบบ AI โดยคำนึงถึงข้อพิจารณาทางจริยธรรม
ตัวอย่าง: ลองพิจารณารถยนต์ไร้คนขับที่ก่ออุบัติเหตุ การพิจารณาความรับผิดอาจเกี่ยวข้องกับการตรวจสอบการออกแบบของระบบ AI ขั้นตอนการทดสอบ และการกระทำของผู้โดยสารในรถ จำเป็นต้องมีกรอบกฎหมายที่ชัดเจนเพื่อจัดการกับสถานการณ์ที่ซับซ้อนเหล่านี้
3. ความโปร่งใสและความสามารถในการอธิบายได้
ความโปร่งใส หมายถึง ความสามารถในการทำความเข้าใจว่าระบบ AI ทำงานอย่างไรและตัดสินใจอย่างไร ความสามารถในการอธิบายได้ หมายถึง ความสามารถในการให้คำอธิบายที่ชัดเจนและเข้าใจได้สำหรับการตัดสินใจเหล่านั้น ระบบ AI จำนวนมาก โดยเฉพาะอย่างยิ่งระบบที่ใช้การเรียนรู้เชิงลึก (deep learning) มักถูกเรียกว่า "กล่องดำ" (black boxes) เนื่องจากกลไกการทำงานภายในนั้นทึบแสง
ความสำคัญของความโปร่งใสและความสามารถในการอธิบายได้:
- การสร้างความไว้วางใจ: ความโปร่งใสและความสามารถในการอธิบายได้เป็นสิ่งจำเป็นสำหรับการสร้างความไว้วางใจใน AI ผู้ใช้มีแนวโน้มที่จะยอมรับและใช้ระบบ AI มากขึ้นหากพวกเขาเข้าใจว่ามันทำงานอย่างไร
- การระบุข้อผิดพลาดและอคติ: ความโปร่งใสและความสามารถในการอธิบายได้สามารถช่วยระบุข้อผิดพลาดและอคติในระบบ AI
- การรับประกันความรับผิดชอบ: ความโปร่งใสและความสามารถในการอธิบายได้เป็นสิ่งจำเป็นเพื่อให้ระบบ AI ต้องรับผิดชอบต่อการกระทำของตน
แนวทางสู่ความโปร่งใสและความสามารถในการอธิบายได้:
- เทคนิคปัญญาประดิษฐ์ที่อธิบายได้ (XAI): การพัฒนาโมเดล AI ที่สามารถอธิบายได้ในตัวเอง หรือใช้เทคนิคเพื่ออธิบายการตัดสินใจของโมเดลกล่องดำ
- การ์ดโมเดล (Model Cards): การจัดทำเอกสารที่อธิบายลักษณะ ประสิทธิภาพ และข้อจำกัดของโมเดล AI
- การตรวจสอบและการเฝ้าระวัง: การตรวจสอบและเฝ้าระวังระบบ AI อย่างสม่ำเสมอเพื่อให้แน่ใจว่าระบบทำงานตามที่ตั้งใจไว้
4. ความเป็นส่วนตัวและความปลอดภัยของข้อมูล
ระบบ AI มักต้องอาศัยข้อมูลจำนวนมหาศาล ซึ่งทำให้เกิดความกังวลเกี่ยวกับความเป็นส่วนตัวและความปลอดภัยของข้อมูล การรวบรวม การจัดเก็บ และการใช้ข้อมูลส่วนบุคคลต้องได้รับการจัดการอย่างระมัดระวังเพื่อปกป้องสิทธิ์ความเป็นส่วนตัวของบุคคล
ข้อกังวลหลักด้านความเป็นส่วนตัว:
- การรวบรวมข้อมูล: ระบบ AI อาจรวบรวมข้อมูลโดยที่ผู้ใช้ไม่ทราบหรือไม่ให้ความยินยอม
- การจัดเก็บข้อมูล: ข้อมูลส่วนบุคคลอาจถูกจัดเก็บอย่างไม่ปลอดภัย ทำให้เสี่ยงต่อการรั่วไหล
- การใช้ข้อมูล: ข้อมูลส่วนบุคคลอาจถูกนำไปใช้เพื่อวัตถุประสงค์ที่ไม่โปร่งใสหรือไม่สอดคล้องกับความคาดหวังของผู้ใช้
การปกป้องความเป็นส่วนตัว:
- การลดปริมาณข้อมูล (Data Minimization): การรวบรวมเฉพาะข้อมูลที่จำเป็นสำหรับวัตถุประสงค์เฉพาะเท่านั้น
- การทำให้ข้อมูลเป็นนิรนามและการแฝงข้อมูล (Anonymization and Pseudonymization): การลบหรือปิดบังข้อมูลที่สามารถระบุตัวตนออกจากข้อมูล
- การเข้ารหัสข้อมูล: การปกป้องข้อมูลด้วยการเข้ารหัสทั้งในระหว่างการส่งและเมื่อจัดเก็บ
- นโยบายธรรมาภิบาลข้อมูล: การใช้นโยบายธรรมาภิบาลข้อมูลที่ชัดเจนซึ่งระบุวิธีการรวบรวม จัดเก็บ และใช้ข้อมูล
- การปฏิบัติตามกฎระเบียบ: การปฏิบัติตามกฎระเบียบด้านความเป็นส่วนตัวของข้อมูล เช่น GDPR (General Data Protection Regulation) และ CCPA (California Consumer Privacy Act)
5. ความเป็นอิสระและการควบคุมของมนุษย์
เมื่อระบบ AI มีความสามารถมากขึ้น มีความเสี่ยงที่มันอาจจะบั่นทอนความเป็นอิสระและการควบคุมของมนุษย์ เป็นสิ่งสำคัญที่จะต้องแน่ใจว่ามนุษย์ยังคงควบคุมระบบ AI และ AI ถูกใช้เพื่อเสริมการตัดสินใจของมนุษย์ ไม่ใช่เพื่อทดแทน
การรักษาการควบคุมของมนุษย์:
- ระบบที่มีมนุษย์อยู่ในวงจรการทำงาน (Human-in-the-Loop Systems): การออกแบบระบบ AI ที่ต้องการการกำกับดูแลและการแทรกแซงจากมนุษย์
- ปัญญาประดิษฐ์ที่อธิบายได้ (XAI): การให้ข้อมูลที่จำเป็นแก่มนุษย์เพื่อทำความเข้าใจและควบคุมระบบ AI
- หลักการออกแบบอย่างมีจริยธรรม: การนำข้อพิจารณาทางจริยธรรมมาใช้ในการออกแบบระบบ AI เพื่อให้แน่ใจว่าสอดคล้องกับคุณค่าของมนุษย์
6. ความปลอดภัยและความมั่นคง
ระบบ AI ต้องได้รับการออกแบบและปรับใช้ในลักษณะที่รับประกันความปลอดภัยและความมั่นคง ซึ่งรวมถึงการป้องกันการโจมตีที่เป็นอันตรายและรับประกันว่าระบบ AI จะไม่ก่อให้เกิดอันตรายที่ไม่ได้ตั้งใจ
การจัดการความเสี่ยงด้านความปลอดภัยและความมั่นคง:
- การออกแบบที่แข็งแกร่ง (Robust Design): การออกแบบระบบ AI ที่ทนทานต่อข้อผิดพลาดและการโจมตี
- มาตรการความปลอดภัย: การใช้มาตรการความปลอดภัยเพื่อปกป้องระบบ AI จากการโจมตีที่เป็นอันตราย
- การทดสอบและการตรวจสอบความถูกต้อง: การทดสอบและตรวจสอบความถูกต้องของระบบ AI อย่างเข้มงวดก่อนการปรับใช้
- การเฝ้าระวังและการบำรุงรักษา: การเฝ้าระวังและบำรุงรักษาระบบ AI อย่างต่อเนื่องเพื่อให้แน่ใจว่าทำงานได้อย่างปลอดภัยและมั่นคง
มุมมองระดับโลกเกี่ยวกับจริยธรรม AI
ข้อพิจารณาทางจริยธรรมเกี่ยวกับ AI ไม่ได้จำกัดอยู่แค่ประเทศหรือภูมิภาคใดภูมิภาคหนึ่ง แต่เป็นเรื่องระดับโลกและต้องการความร่วมมือระหว่างประเทศเพื่อแก้ไข ประเทศและภูมิภาคต่างๆ มีค่านิยมทางวัฒนธรรมและลำดับความสำคัญที่แตกต่างกัน ซึ่งอาจส่งผลต่อแนวทางของพวกเขาต่อจริยธรรม AI
ตัวอย่างความแตกต่างในระดับภูมิภาค:
- สหภาพยุโรป: สหภาพยุโรปมีจุดยืนที่แข็งแกร่งในเรื่องจริยธรรม AI โดยเน้นความสำคัญของสิทธิมนุษยชน ประชาธิปไตย และหลักนิติธรรม ร่างกฎหมาย AI ของสหภาพยุโรป (AI Act) เสนอกรอบการกำกับดูแลที่ครอบคลุมสำหรับ AI ซึ่งอิงตามระดับความเสี่ยง
- สหรัฐอเมริกา: สหรัฐฯ ใช้แนวทางที่ขับเคลื่อนโดยตลาดมากขึ้นในเรื่องจริยธรรม AI โดยเน้นที่นวัตกรรมและการเติบโตทางเศรษฐกิจ รัฐบาลสหรัฐฯ ได้ออกแนวทางสำหรับการพัฒนาและการปรับใช้ AI แต่ยังไม่ได้บังคับใช้กฎระเบียบที่ครอบคลุม
- จีน: จีนมุ่งเน้นการพัฒนาและการปรับใช้ AI อย่างจริงจัง โดยเน้นพิเศษในการใช้ AI เพื่อประโยชน์ของสังคม รัฐบาลจีนได้ออกแนวทางจริยธรรมสำหรับ AI แต่ก็เน้นย้ำถึงความสำคัญของความมั่นคงของชาติและเสถียรภาพทางสังคม
ความจำเป็นสำหรับความร่วมมือระหว่างประเทศ: การจัดการกับความท้าทายทางจริยธรรมของ AI ต้องอาศัยความร่วมมือระหว่างประเทศเพื่อพัฒนามาตรฐานและแนวปฏิบัติที่ดีที่สุดร่วมกัน ซึ่งรวมถึง:
- การแบ่งปันความรู้และความเชี่ยวชาญ: การแบ่งปันความรู้และความเชี่ยวชาญเกี่ยวกับจริยธรรม AI ข้ามพรมแดน
- การพัฒนามาตรฐานร่วมกัน: การพัฒนามาตรฐานร่วมกันสำหรับการพัฒนาและการปรับใช้ AI
- การส่งเสริมธรรมาภิบาล AI อย่างมีจริยธรรม: การส่งเสริมธรรมาภิบาล AI อย่างมีจริยธรรมในระดับสากล
กรอบการทำงานและแนวทางสำหรับการพัฒนา AI อย่างมีจริยธรรม
องค์กรและสถาบันหลายแห่งได้พัฒนากรอบการทำงานและแนวทางสำหรับการพัฒนา AI อย่างมีจริยธรรม กรอบการทำงานเหล่านี้ให้คำแนะนำเกี่ยวกับวิธีการออกแบบ พัฒนา และปรับใช้ระบบ AI อย่างมีความรับผิดชอบและมีจริยธรรม
ตัวอย่างกรอบจริยธรรม AI:
- IEEE Ethically Aligned Design: กรอบการทำงานที่ครอบคลุมซึ่งให้คำแนะนำเกี่ยวกับวิธีการออกแบบระบบ AI ที่สอดคล้องกับคุณค่าของมนุษย์
- OECD Principles on AI: ชุดหลักการที่ส่งเสริมการดูแล AI ที่น่าเชื่อถืออย่างรับผิดชอบ
- UNESCO Recommendation on the Ethics of Artificial Intelligence: กรอบการทำงานระดับโลกที่มุ่งชี้นำการพัฒนาและการใช้ AI ในลักษณะที่เป็นประโยชน์ต่อมนุษยชาติและปกป้องสิทธิมนุษยชน
หลักการสำคัญของกรอบจริยธรรม AI:
- ประโยชน์ (Beneficence): ระบบ AI ควรได้รับการออกแบบมาเพื่อเป็นประโยชน์ต่อมนุษยชาติ
- การไม่ทำอันตราย (Non-Maleficence): ระบบ AI ไม่ควรก่อให้เกิดอันตราย
- ความเป็นอิสระ (Autonomy): ระบบ AI ควรเคารพความเป็นอิสระของมนุษย์
- ความยุติธรรม (Justice): ระบบ AI ควรมีความเป็นธรรมและเท่าเทียม
- ความสามารถในการอธิบายได้ (Explainability): ระบบ AI ควรมีความโปร่งใสและสามารถอธิบายได้
- ภาระรับผิดชอบ (Accountability): ระบบ AI ควรต้องรับผิดชอบต่อการกระทำของตน
อนาคตของจริยธรรม AI
สาขาจริยธรรม AI กำลังพัฒนาอย่างต่อเนื่องในขณะที่เทคโนโลยี AI ก้าวหน้าต่อไป อนาคตของจริยธรรม AI น่าจะถูกกำหนดโดยแนวโน้มสำคัญหลายประการ:
- กฎระเบียบที่เพิ่มขึ้น: รัฐบาลทั่วโลกกำลังพิจารณากฎระเบียบสำหรับ AI มากขึ้น ร่างกฎหมาย AI ของสหภาพยุโรปถือเป็นก้าวสำคัญในทิศทางนี้
- การรับรู้ของสาธารณชนที่มากขึ้น: เมื่อ AI แพร่หลายมากขึ้น การรับรู้ของสาธารณชนเกี่ยวกับผลกระทบทางจริยธรรมของ AI จะยังคงเติบโตต่อไป
- ความก้าวหน้าใน XAI: การวิจัยเกี่ยวกับปัญญาประดิษฐ์ที่อธิบายได้จะนำไปสู่ระบบ AI ที่โปร่งใสและเข้าใจได้มากขึ้น
- การมุ่งเน้นที่ความปลอดภัยของ AI: จะมีการให้ความสำคัญเพิ่มขึ้นกับการรับประกันความปลอดภัยและความมั่นคงของระบบ AI โดยเฉพาะอย่างยิ่งเมื่อ AI มีความเป็นอิสระมากขึ้น
- ความร่วมมือแบบสหวิทยาการ: การจัดการกับความท้าทายทางจริยธรรมของ AI จะต้องอาศัยความร่วมมือระหว่างผู้เชี่ยวชาญจากหลากหลายสาขา รวมถึงวิทยาการคอมพิวเตอร์ กฎหมาย ปรัชญา และจริยธรรม
บทสรุป
การสำรวจภูมิทัศน์ทางจริยธรรมของปัญญาประดิษฐ์เป็นความท้าทายที่ซับซ้อนและต่อเนื่อง อย่างไรก็ตาม โดยการจัดการกับข้อพิจารณาทางจริยธรรมที่สำคัญที่กล่าวถึงในบล็อกโพสต์นี้ – อคติ ความรับผิดชอบ ความโปร่งใส ความเป็นส่วนตัว และความเป็นอิสระของมนุษย์ – เราสามารถควบคุมศักยภาพมหาศาลของ AI พร้อมกับลดความเสี่ยงต่างๆ ความร่วมมือระหว่างประเทศ กรอบจริยธรรม และการเจรจาอย่างต่อเนื่องเป็นสิ่งจำเป็นเพื่อให้แน่ใจว่า AI ได้รับการพัฒนาและปรับใช้อย่างมีความรับผิดชอบและเป็นประโยชน์ต่อมวลมนุษยชาติ
การพัฒนาและการปรับใช้ AI ไม่ควรเน้นเฉพาะความสามารถทางเทคนิคเท่านั้น แต่ต้องให้ความสำคัญกับข้อพิจารณาทางจริยธรรมด้วย เมื่อนั้นเราจึงจะสามารถปลดล็อกศักยภาพสูงสุดของ AI ในขณะที่ปกป้องคุณค่าของมนุษย์และส่งเสริมอนาคตที่ยุติธรรมและเท่าเทียม
ข้อเสนอแนะที่นำไปปฏิบัติได้:
- ติดตามข้อมูลข่าวสาร: ติดตามความคืบหน้าล่าสุดเกี่ยวกับจริยธรรม AI
- สนับสนุน AI ที่มีความรับผิดชอบ: สนับสนุนนโยบายและโครงการที่ส่งเสริมการพัฒนาและการปรับใช้ AI อย่างมีความรับผิดชอบ
- เรียกร้องความโปร่งใส: ขอให้บริษัทและองค์กรต่างๆ โปร่งใสเกี่ยวกับวิธีการใช้ AI
- ส่งเสริมความหลากหลาย: สนับสนุนความหลากหลายในทีมพัฒนา AI
- มีส่วนร่วมในการเจรจา: เข้าร่วมในการอภิปรายเกี่ยวกับผลกระทบทางจริยธรรมของ AI
ด้วยการทำตามขั้นตอนเหล่านี้ เราทุกคนสามารถมีบทบาทในการกำหนดอนาคตของ AI และรับประกันว่ามันจะถูกนำไปใช้เพื่อประโยชน์ของมนุษยชาติ