ปัญญาประดิษฐ์ โกสต์อินเดอะแมชชีนปัญญาประดิษฐ์จะกลายเป็นความรู้สึกเมื่อใด ผู้เขียนนิยายวิทยาศาสตร์มักเขียนเรื่องราว ที่มีคอมพิวเตอร์อัจฉริยะที่ทรงพลัง ซึ่งไม่ว่าจะด้วยเหตุผลใดก็ตาม กลายเป็นอันตรายและตัดสินใจว่ามนุษยชาติจะต้องทนทุกข์ ท้ายที่สุดแล้วโครงเรื่องอาศัยความขัดแย้ง และใครอยากจะอ่านเกี่ยวกับความฉลาดทางคอมพิวเตอร์ ที่มีความสุขกับการนัดหมายแพทย์และการเปิดและปิดไฟ ในเรื่องราวเหล่านี้ดูเหมือนว่ายุคของปัญญาประดิษฐ์
ปัญญาประดิษฐ์จะอยู่ใกล้แค่เอื้อมอีกครั้ง นั่นเป็นสิ่งที่ดีสำหรับโครงเรื่อง ปัญญาประดิษฐ์จะคิดเพื่อตัวเองอย่างแท้จริงและดูเหมือนมีชีวิตหรือไม่และเป็นไปได้ไหม คำถามนี้ปรากฏในข่าวในเดือนมิถุนายน 2022 นิตาชา ทิคุ รายงานว่าเบลค เลอมอยน์ วิศวกรที่ทำงานให้กับหน่วยปัญญาประดิษฐ์ที่รับผิดชอบของ Google ในปัญญาประดิษฐ์ที่เรียกว่า LaMDA ย่อมาจากโมเดลภาษาสำหรับแอปพลิเคชันการสนทนา เชื่อว่า AI มีความรู้สึกกล่าวคือสามารถสัมผัสความรู้สึก
รวมถึงมีจิตวิญญาณ เลมอยน์รายงานการค้นพบของเขาไปยัง Google โดยอ้างอิงจากการสัมภาษณ์ที่เขาดำเนินการกับ LaMDA คนหนึ่งบอกเขาว่ากลัวว่าจะถูกปิดตัวลง หากเป็นเช่นนั้น LaMDA กล่าวว่าจะไม่สามารถช่วยเหลือผู้คนได้อีกต่อไป เบลส อเกราและอาร์คัส รองประธานของ Google และเจน เจนนัย ผู้อำนวยการฝ่ายนวัตกรรมที่รับผิดชอบ ได้ตรวจสอบการค้นพบของเลมอยน์และไม่เชื่อเขา ในความเป็นจริงเลมอยน์ถูกพักงาน
เลมอยน์ชี้ให้เห็นว่า LaMDA ไม่ใช่แชทบอท แอปพลิเคชันที่ออกแบบมาเพื่อสื่อสารกับผู้คนแบบตัวต่อตัว แต่เป็นแอปพลิเคชันที่สร้างแชทบอท กล่าวอีกนัยหนึ่ง LaMDA เองไม่ได้ถูกออกแบบมาให้มีการสนทนาเชิงลึก เกี่ยวกับศาสนาหรือสิ่งอื่นใดสำหรับเรื่องนั้น แม้ว่าผู้เชี่ยวชาญจะไม่เชื่อว่า LaMDA นั้นมีความรู้สึก แต่หลายคนรวมถึงอเกราและอาร์คัสของ Google กล่าวว่าปัญญาประดิษฐ์นั้นน่าเชื่อถือมาก หากเราสร้างปัญญาประดิษฐ์ที่มีความรู้สึกได้จริงได้สำเร็จ
ผู้เชี่ยวชาญคิดว่าลักษณะใดที่แสดงว่า คอมพิวเตอร์รู้จักตนเองอย่างแท้จริง เกมเลียนแบบ เทคนิคที่รู้จักกันดีที่สุดที่ออกแบบมา เพื่อวัดปัญญาประดิษฐ์คือการทดสอบทัวริง ซึ่งตั้งชื่อตามนักคณิตศาสตร์ชาวอังกฤษอลัน ทัวริง หลังจากความช่วยเหลือที่สำคัญของเขาในการทำลายรหัสภาษาเยอรมันในสงครามโลกครั้งที่ 2 เขาใช้เวลาทำงานเกี่ยวกับปัญญาประดิษฐ์ ทัวริงเชื่อว่าสมองของมนุษย์เปรียบเสมือนคอมพิวเตอร์ดิจิทัล เขาประดิษฐ์สิ่งที่เขาเรียกว่าเกมเลียนแบบ
ซึ่งมนุษย์จะถามคำถามเกี่ยวกับเครื่องจักรในสถานที่อื่น หรืออย่างน้อยในที่ที่บุคคลนั้นมองไม่เห็น หากเครื่องสามารถสนทนากับบุคคลนั้น และหลอกให้พวกเขาคิดว่าเป็นบุคคลอื่น แทนที่จะเป็นเครื่องที่อ่านข้อมูลที่ตั้งโปรแกรมไว้ล่วงหน้า แสดงว่าผ่านการทดสอบแล้ว แนวคิดเบื้องหลังเกมจำลองของทัวริงนั้นเรียบง่าย และใครก็ตามอาจจินตนาการได้ว่าการสนทนาของเลมอยน์กับ LaMDA จะทำให้ทัวริงเชื่อเมื่อเขาคิดเกมนี้ขึ้นมา
อย่างไรก็ตามการตอบสนองของ Google ต่อคำกล่าวอ้างของเลมอยน์ แสดงให้เห็นว่าตอนนี้นักวิจัยปัญญาประดิษฐ์ คาดหวังพฤติกรรมขั้นสูงจากเครื่องของพวกเขา เอเดรียน เวลเลอร์ผู้อำนวยการโครงการปัญญาประดิษฐ์ ของสถาบันอลันทัวริงในสหราชอาณาจักร ยอมรับว่าแม้บทสนทนาของ LaMDA จะน่าประทับใจ แต่เขาเชื่อว่าปัญญาประดิษฐ์กำลังใช้การจับคู่รูปแบบขั้นสูง เพื่อเลียนแบบการสนทนาอัจฉริยะ
ดังที่ คาริสซ่า เวลิซเขียนไว้ในกระดานชนวนว่า หากก้อนหินเริ่มพูดกับคุณในวันหนึ่ง ก็น่าจะสมเหตุสมผลแล้วที่จะประเมินความรู้สึก ถ้ามันร้องออกมาว่าอุ๊ยหลังจากที่คุณนั่งบนมันแล้ว มันก็เป็นความคิดที่ดีที่จะลุกขึ้นยืน แต่โมเดลภาษาปัญญาประดิษฐ์ไม่เป็นเช่นนั้น โมเดลภาษาได้รับการออกแบบโดยมนุษย์เพื่อใช้ภาษา ดังนั้น จึงไม่น่าแปลกใจที่เราจะทำเช่นนั้น ประเด็นขัดแย้งทางจริยธรรมกับปัญญาประดิษฐ์ ปัญญาประดิษฐ์มีปัจจัยที่ยอดเยี่ยม
ซึ่งดูเหมือนเป็นเครื่องมือที่เราต้องการส่งต่อการยกของหนัก เพื่อให้เรามีเวลาไปทำอะไรอย่างอื่นได้ แต่อาจใช้เวลาสักครู่ก่อนที่ปัญญาประดิษฐ์มีความรู้สึกหรือไม่ก็ตาม จะพร้อมสำหรับก้าวที่ยิ่งใหญ่เช่นนี้ ทิมนิต เกบรูผู้ก่อตั้งสถาบันวิจัย ปัญญาประดิษฐ์แบบกระจาย DAIR แนะนำให้เราคิดอย่างรอบคอบและดำเนินการอย่างช้าๆ ในการรับเอาปัญญาประดิษฐ์มาใช้ เธอและเพื่อนร่วมงานหลายคนกังวลว่าข้อมูลที่เอไอใช้ จะทำให้เครื่องดูเหมือนเหยียดเชื้อชาติและเหยียดเพศ
ในการให้สัมภาษณ์กับ IEEE สเปกตรัม ผู้อำนวยการฝ่ายวิจัยของ DAIR อเล็กซ์ ฮันนากล่าวว่าเธอเชื่อว่าอย่างน้อยข้อมูลบางส่วน ที่ใช้ในแบบจำลองภาษาโดยนักวิจัย ปัญญาประดิษฐ์ นั้นถูกรวบรวม ผ่านทางเทคโนโลยีที่น่าสงสัยทางจริยธรรมหรือทางกฎหมาย หากปราศจากการแสดงข้อมูลอย่างยุติธรรมและเท่าเทียมกัน AI ก็สามารถทำการตัดสินใจที่มีอคติได้ เบลค เลอมอยน์ในการให้สัมภาษณ์เกี่ยวกับ LaMDA กล่าวว่าเขาไม่เชื่อว่าปัญญาประดิษฐ์จะไม่เป็นกลาง
หนึ่งในเป้าหมายของสมาคมยุติธรรมอัลกอริทึมที่ระบุไว้ในพันธกิจคือ การทำให้ผู้คนตระหนักมากขึ้นว่า ปัญญาประดิษฐ์ส่งผลกระทบต่อพวกเขาอย่างไร ผู้ก่อตั้งจอย บอลัมวินวินี่ได้กล่าวสุนทรพจน์ใน TED ทอล์คในฐานะนักศึกษาระดับบัณฑิตศึกษาที่สถาบันเทคโนโลยีแมสซาชูเซตส์ MIT เกี่ยวกับรหัสจ้องมองปัญญาประดิษฐ์ ที่เธอทำงานด้วยมีช่วงเวลาที่ยากขึ้นในการอ่านใบหน้าของคนผิวดำ เพียงเพราะพวกเขาไม่ได้ถูกตั้งโปรแกรมให้จดจำโทนสีผิวที่หลากหลาย
AJS ต้องการให้ผู้คนรู้ว่าข้อมูลถูกรวบรวมอย่างไร ข้อมูลประเภทใดที่ถูกรวบรวม เพื่อให้มีความรับผิดชอบ และสามารถดำเนินการแก้ไขพฤติกรรมของปัญญาประดิษฐ์ได้ แม้ว่าคุณจะสามารถสร้างปัญญาประดิษฐ์ ที่สามารถตัดสินใจได้อย่างเป็นกลางอย่างแท้จริง แต่ก็ยังมีคำถามด้านจริยธรรมอื่นๆ ปัจจุบันต้นทุนในการสร้างโมเดลภาษาขนาดใหญ่สำหรับ AI มีมูลค่าสูงถึงหลายล้านดอลลาร์ ตัวอย่างเช่น AI ที่รู้จักกันในชื่อ GPT-3 อาจมีราคาระหว่าง 300 ถึง 968 ล้าน
อาจมีราคาแพงแต่ GPT-3 สามารถเขียนบทความทั้งหมดได้ด้วยตัวเอง การฝึกอบรม AI ยังส่งผลกระทบต่อสิ่งแวดล้อมในแง่ของการปล่อยก๊าซคาร์บอนไดออกไซด์ ปัจจัยเหล่านี้ไม่ได้ทำให้นักวิจัย ไม่สามารถศึกษาต่อได้ ปัญญาประดิษฐ์ก้าวไปไกลตั้งแต่ช่วงกลางถึงปลายศตวรรษที่ 20 แม้ว่า LaMDA และปัญญาประดิษฐ์สมัยใหม่อื่นๆ สามารถสนทนากับคุณได้อย่างน่าเชื่อถือ แต่พวกเขาก็ไม่ได้มีความรู้สึกบางทีพวกเขาจะไม่เป็น
หากคุณเป็นแฟนรายการเกมทีวีเจ๊ปพาร์ดี้ คุณอาจจำซีรีส์นิทรรศการ 2 เกมระหว่างแชมป์เปี้ยนอย่าง เคน เจนนิงส์และแบรด รัตเทอร์และวัตสัน ซูเปอร์คอมพิวเตอร์ที่สร้างโดย IBM วัตสันนำซีรีส์เรื่องนี้ไปแต่ก็ดึงดูดความสนใจด้วยการถามว่า โตรอนโตคืออะไร ในหมวดหมู่เกี่ยวกับเมืองต่างๆ ของสหรัฐฯ และทำการเดิมพันแปลกๆ ใน Daily Doubles IBM อธิบายว่าแม้ว่าเครื่องจะมีปัญหาในการประมวลผลภาษาธรรมชาติ แต่ก็ทำการคำนวณตามสถิติที่เก็บไว้ ผู้เชี่ยวชาญด้านทฤษฎีเกมได้ทำงานกับวัตสันเช่นกัน
อ่านต่อได้ที่ : กลิ่น การอธิบายเกี่ยวกับการค้นหาวัตถุที่กลิ่นหอมและการค้าของเครื่องหอม