เปิดความเสี่ยงในการใช้เครื่องมือ AI อย่าง ChatGPT, Google Gemini, Apple Intelligence

เปิดความเสี่ยงในการใช้เครื่องมือ AI อย่าง ChatGPT, Google Gemini, Apple Intelligence

อัปเดตล่าสุด 17 ก.ค. 2567
  • Share :
  • 1,086 Reads   

ผู้บริโภคหลายคนตื่นเต้นกับ AI ที่สามารถสร้างสรรค์ได้โดยใช้เครื่องมือใหม่ ๆ สำหรับเรื่องส่วนตัวหรือธุรกิจทุกประเภท ตั้งแต่ ChatGPT ของ OpenAI จนถึง Google Gemini, Microsoft Copilot และ Apple Intelligence เครื่องมือ AI สำหรับผู้บริโภคเหล่านี้สามารถเข้าถึงได้ง่ายและแพร่หลายอย่างรวดเร็ว ผู้เชี่ยวชาญเตือน “ไม่มีประโยชน์ที่แท้จริงสำหรับผู้บริโภคที่จะอนุญาตให้ AI เรียนรู้จากข้อมูลของพวกเขา และยังมีความเสี่ยงที่ยังคงถูกศึกษาต่อไป”

Advertisement

เกาหลีใต้ 22 พฤษภาคม 2567 - สำนักข่าวซีเอ็นบีซีเผย ความเสี่ยงใหญ่ที่สุดในการใช้ AI เช่น ChatGPT, Google Gemini, Microsoft Copilot, Apple Intelligence ในชีวิตประจำวัน อย่างไรก็ตาม เครื่องมือเหล่านี้มีนโยบายความเป็นส่วนตัวที่แตกต่างกันเกี่ยวกับการใช้ข้อมูลของผู้ใช้และการเก็บรักษา ในหลายกรณี ผู้บริโภคไม่ทราบว่าข้อมูลของพวกเขาถูกใช้อย่างไรหรืออาจถูกใช้อย่างไร

ผู้เชี่ยวชาญกล่าวว่าไม่มีประโยชน์ที่แท้จริงสำหรับผู้บริโภคที่จะอนุญาตให้ AI เรียนรู้จากข้อมูลของพวกเขา และยังมีความเสี่ยงที่ยังคงถูกศึกษาต่อไป

นั่นเป็นเหตุผลของการเป็นผู้บริโภคที่มีความรู้เป็นสิ่งสำคัญอย่างยิ่ง มีความละเอียดที่จะสามารถควบคุมเครื่องมือที่ใช้ 

Jodi Daniels CEO และที่ปรึกษาด้านความเป็นส่วนตัวที่ Red Clover Advisors ซึ่งให้คำปรึกษาแก่บริษัทต่าง ๆ ในเรื่องความเป็นส่วนตัวกล่าวว่า “ไม่มีการยกเลิกการใช้ข้อมูลในทุกเครื่องมือทั้งหมด”

การแพร่หลายของเครื่องมือ AI และการรวมเข้ากับสิ่งที่ผู้บริโภคทำบนคอมพิวเตอร์ส่วนตัวและสมาร์ทโฟน ทำให้คำถามเหล่านี้มีความเกี่ยวข้องมากยิ่งขึ้น ตัวอย่างเช่น ไม่กี่เดือนที่ผ่านมา Microsoft ได้เปิดตัว Surface PC รุ่นแรกที่มีปุ่ม Copilot เฉพาะบนคีย์บอร์ดเพื่อการเข้าถึงแชทบอทอย่างรวดเร็ว ตามคำสัญญาจากหลายเดือนก่อนหน้านี้ สำหรับส่วนของ Apple เมื่อเดือนที่แล้วได้กล่าวถึงวิสัยทัศน์ของ AI ซึ่งเน้นไปที่โมเดลขนาดเล็กหลายตัวที่ทำงานบนอุปกรณ์และชิปของ Apple ผู้บริหารของบริษัทได้พูดถึงความสำคัญที่บริษัทให้ความสำคัญกับความเป็นส่วนตัว ซึ่งอาจเป็นความท้าทายกับโมเดล AI

นี่คือหลายวิธีที่ผู้บริโภคสามารถปกป้องความเป็นส่วนตัวในยุคใหม่ของ AI ที่สามารถสร้างสรรค์ได้

ถามคำถามเกี่ยวกับความเป็นส่วนตัวที่ AI ต้องสามารถตอบได้

ก่อนที่จะเลือกใช้เครื่องมือ ผู้บริโภคควรอ่านนโยบายความเป็นส่วนตัวที่เกี่ยวข้องอย่างละเอียด ข้อมูลของคุณถูกใช้อย่างไรและอาจถูกใช้อย่างไร มีตัวเลือกในการปิดการแบ่งปันข้อมูลหรือไม่ มีวิธีจำกัดข้อมูลที่ใช้และระยะเวลาการเก็บข้อมูลหรือไม่ ข้อมูลสามารถถูกลบได้หรือไม่ ผู้ใช้ต้องผ่านกระบวนการที่ซับซ้อนเพื่อค้นหาการตั้งค่ายกเลิกหรือไม่

ถ้าคุณไม่สามารถตอบคำถามเหล่านี้ได้ง่าย ๆ หรือไม่พบคำตอบในนโยบายความเป็นส่วนตัวของผู้ให้บริการ ควรมีการเตือนภัยล่วงหน้า

Daniels กล่าวว่า “เครื่องมือที่ใส่ใจความเป็นส่วนตัวจะบอกคุณ” และถ้าไม่ “คุณต้องมีความรับผิดชอบต่อมัน คุณไม่สามารถสันนิษฐานว่าบริษัทจะทำสิ่งที่ถูกต้อง ทุกบริษัทมีคุณค่าแตกต่างกันและทุกบริษัททำเงินแตกต่างกัน”

เก็บข้อมูลที่ละเอียดอ่อนออกจากโมเดลภาษาขนาดใหญ่

บางคนไว้วางใจในการใส่ข้อมูลที่ละเอียดอ่อนเข้าไปในโมเดล AI ที่สร้างสรรค์ได้ แต่ Andrew Frost Moroz ผู้ก่อตั้ง Aloha Browser ซึ่งเป็นเบราว์เซอร์ที่เน้นความเป็นส่วนตัว แนะนำว่าคุณไม่ควรใส่ข้อมูลที่ละเอียดอ่อนใด ๆ เนื่องจากพวกเขาไม่ทราบจริง ๆ ว่ามันอาจถูกใช้อย่างไรหรืออาจถูกใช้อย่างผิด ๆ ได้อย่างไร

นี่เป็นจริงสำหรับข้อมูลทุกประเภทที่คุณอาจใส่เข้าไป ไม่ว่าจะเป็นข้อมูลส่วนตัวหรือที่เกี่ยวข้องกับงาน หลายบริษัทมีความกังวลอย่างมากเกี่ยวกับพนักงานที่ใช้โมเดล AI เพื่อช่วยในการทำงานของพวกเขา เพราะพนักงานอาจไม่พิจารณาว่าข้อมูลนั้นถูกใช้อย่างไร โดยโมเดลสำหรับการฝึกอบรม หากคุณใส่เอกสารที่เป็นความลับ โมเดล AI จะสามารถเข้าถึงมันได้ ซึ่งอาจเกิดความกังวลต่าง ๆ มากมาย หลายบริษัทจะอนุมัติการใช้เครื่องมือ AI ที่สามารถสร้างสรรค์ได้ที่มีการป้องกันระหว่างข้อมูลที่เป็นเอกลักษณ์กับโมเดลภาษาขนาดใหญ่เท่านั้น

บุคคลทั่วไปก็ควรระมัดระวังและไม่ใช้โมเดล AI สำหรับสิ่งใดที่ไม่เป็นสาธารณะหรือที่คุณไม่ต้องการให้คนอื่นเห็นในทุกกรณี Frost Moroz กล่าว การตระหนักถึงวิธีการใช้ AI ของคุณเป็นสิ่งสำคัญ หากคุณใช้มันเพื่อสรุปบทความจาก Wikipedia นั่นอาจไม่ใช่ปัญหา แต่หากคุณใช้มันเพื่อสรุปเอกสารทางกฎหมายส่วนบุคคล นั่นเป็นสิ่งที่ไม่ควรทำ หรือสมมติว่าคุณมีภาพของเอกสารและคุณต้องการคัดลอกย่อหน้าใดบรรทัดหนึ่ง คุณสามารถขอให้ AI อ่านข้อความเพื่อที่คุณจะได้คัดลอกได้ การทำเช่นนี้ โมเดล AI จะรู้เนื้อหาของเอกสาร ดังนั้น ผู้บริโภคควรตระหนักถึงความเสี่ยงดังกล่าว

ใช้การยกเลิกที่มีให้โดย OpenAI, Google

เครื่องมือ AI ที่สามารถสร้างสรรค์ได้แต่ละตัวมีนโยบายความเป็นส่วนตัวของตัวเองและอาจมีตัวเลือกในการยกเลิก ตัวอย่างเช่น Gemini อนุญาตให้ผู้ใช้สร้างระยะเวลาเก็บรักษาและลบข้อมูลบางอย่างได้ รวมถึงการควบคุมกิจกรรมอื่น ๆ

ChatGPT ให้ผู้ใช้สามารถยกเลิกการใช้ข้อมูลของพวกเขาเพื่อการฝึกอบรมโมเดลได้ โดยไปที่ไอคอนโปรไฟล์ที่มุมล่างซ้ายของหน้าและเลือก Data Controls ภายใต้หัวข้อ Settings จากนั้นพวกเขาต้องปิดฟีเจอร์ที่ระบุว่า “ปรับปรุงโมเดลสำหรับทุกคน” ในขณะที่ฟีเจอร์นี้ถูกปิดอยู่ การสนทนาใหม่ ๆ จะไม่ถูกใช้เพื่อฝึกอบรมโมเดลของ ChatGPT ตามที่ระบุใน FAQ บนเว็บไซต์ของ OpenAI

ไม่มีประโยชน์ที่แท้จริงสำหรับผู้บริโภคที่จะอนุญาตให้ AI ที่สามารถสร้างสรรค์ได้ฝึกอบรมจากข้อมูลของพวกเขาและยังมีความเสี่ยงที่ยังคงถูกศึกษาต่อไป Jacob Hoffman-Andrews นักเทคโนโลยีอาวุโสที่ Electronic Frontier Foundation ซึ่งเป็นกลุ่มไม่แสวงหาผลกำไรด้านสิทธิ์ดิจิทัลระหว่างประเทศกล่าวว่า

หากข้อมูลส่วนตัวถูกเผยแพร่บนเว็บอย่างไม่เหมาะสม ผู้บริโภคอาจสามารถลบมันออกได้และมันจะหายไปจากเครื่องมือค้นหา แต่การยกเลิกการฝึกอบรมโมเดล AI นั้นเป็นเรื่องที่ซับซ้อนกว่ามาก เขากล่าวว่า อาจมีวิธีการลดการใช้ข้อมูลบางอย่างเมื่อมันเข้าสู่โมเดล AI แต่ไม่สามารถป้องกันได้อย่างสมบูรณ์และวิธีการทำอย่างมีประสิทธิภาพยังเป็นพื้นที่ที่กำลังถูกวิจัยอย่างต่อเนื่อง

เลือกใช้ด้วยเหตุผลที่ดีเท่านั้น

บริษัทต่าง ๆ กำลังรวม AI ที่สามารถสร้างสรรค์ได้เข้ากับเครื่องมือในชีวิตประจำวันของผู้คนทั้งในชีวิตส่วนตัวและการทำงานของพวกเขา ตัวอย่างเช่น Copilot สำหรับ Microsoft 365 ทำงานภายใน Word, Excel และ PowerPoint เพื่อช่วยผู้ใช้ในงานต่าง ๆ เช่น การวิเคราะห์ การสร้างไอเดีย การจัดระเบียบ และอื่นๆ

สำหรับเครื่องมือเหล่านี้ Microsoft กล่าวว่าไม่ได้แชร์ข้อมูลของผู้บริโภคกับบุคคลที่สามโดยไม่ได้รับอนุญาต และไม่ได้ใช้ข้อมูลลูกค้าเพื่อฝึกอบรม Copilot หรือฟีเจอร์ AI ของตนโดยไม่ได้รับความยินยอม

อย่างไรก็ตาม ผู้ใช้สามารถเลือกใช้ได้หากต้องการ โดยการเข้าสู่ Power Platform admin center เลือกการตั้งค่า tenant settings และเปิดการแชร์ข้อมูลสำหรับ Dynamics 365 Copilot และ Power Platform Copilot AI Features จากนั้นเปิดการแชร์ข้อมูลและบันทึก

ข้อดีของการเลือกใช้รวมถึงความสามารถในการทำให้ฟีเจอร์ที่มีอยู่มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ข้อเสียคือผู้บริโภคจะสูญเสียการควบคุมว่าข้อมูลของตนถูกใช้อย่างไร ซึ่งเป็นสิ่งที่ต้องพิจารณาอย่างสำคัญตามที่ผู้เชี่ยวชาญด้านความเป็นส่วนตัวกล่าว

ข่าวดีคือ ผู้บริโภคที่เลือกใช้กับ Microsoft สามารถถอนความยินยอมของตนได้ทุกเมื่อ ผู้ใช้สามารถทำเช่นนี้ได้โดยไปที่หน้า tenant settings ภายใต้การตั้งค่าใน Power Platform admin center และปิดการแชร์ข้อมูลสำหรับ Dynamics 365 Copilot และ Power Platform Copilot AI Features

กำหนดระยะเวลาการเก็บรักษาสั้นสำหรับ AI ที่สร้างสรรค์ได้สำหรับการค้นหา

ผู้บริโภคอาจไม่คิดมากก่อนที่จะหาข้อมูลโดยใช้ AI โดยใช้มันเหมือนกับที่ใช้เครื่องมือค้นหาเพื่อสร้างข้อมูลและไอเดีย อย่างไรก็ตาม แม้แต่การค้นหาข้อมูลบางประเภทโดยใช้ AI ที่สามารถสร้างสรรค์ได้ก็อาจก่อให้เกิดการล่วงล้ำความเป็นส่วนตัวของบุคคล ดังนั้นจึงมีแนวทางปฏิบัติที่ดีที่สุดเมื่อใช้เครื่องมือเหล่านั้นเพื่อวัตถุประสงค์ดังกล่าว หากเป็นไปได้ ควรกำหนดระยะเวลาการเก็บรักษาสั้นสำหรับเครื่องมือ AI ที่สามารถสร้างสรรค์ได้ Hoffman-Andrews กล่าว และควรลบการสนทนา หากเป็นไปได้ หลังจากที่ได้รับข้อมูลที่ต้องการแล้ว บริษัทต่าง ๆ ยังมีบันทึกเซิร์ฟเวอร์ แต่ก็สามารถช่วยลดความเสี่ยงที่บุคคลที่สามจะเข้าถึงบัญชีของคุณได้ เขากล่าว นอกจากนี้ยังอาจลดความเสี่ยงที่ข้อมูลที่ละเอียดอ่อนจะกลายเป็นส่วนหนึ่งของการฝึกอบรมโมเดล “มันขึ้นอยู่กับการตั้งค่าความเป็นส่วนตัวของเว็บไซต์นั้นจริง ๆ”

#ChatGPT #Google #Gemini #Microsoft #Copilot #AppleIntelligence #Mreport #ข่าวอุตสาหกรรม

บทความยอดนิยม 10 อันดับ

 

อัปเดตข่าวทุกวันที่นี่ www.mreport.co.th   

Line / Facebook / Twitter / YouTube @MreportTH