รู้ลึกกับจุฬาฯ

AI มี “จิตรู้สำนึก” ไหม

ข่าวฮือฮาในวงการเทคโนโลยีเมื่อหลายวันที่ผ่านมา หนีไม่พ้นข่าวปัญญาประดิษฐ์ หรือ AI (Artificial Intelligence) ของเฟซบุ๊ก สร้างภาษาที่คนไม่เข้าใจ คล้ายกับว่าเป็นภาษาที่สร้างมาเพื่อสื่อสารกันเอง ทำให้นักวิจัย

ของเฟซบุ๊กต้องรีบปิดตัวโปรแกรม AI เพราะกลัวว่า AI จะไปทำอะไรร้ายแรง อย่างไรก็ตาม ไม่นานหลังจากนั้นเฟซบุ๊กได้ออกมาแก้ข่าวว่า ที่ปิดตัวไม่ใช่เพราะกลัว แต่ปิดเพราะว่าการทดลองสำเร็จ และนำ AI ดังกล่าวลงเว็บสาธารณะ

ให้คนไปทดลองใช้ได้   สอดคล้องกับข้อถกเถียง ซึ่ง อีลอน มัสค์ ประธานบริษัท SpaceX ได้แลกเปลี่ยนกับ เจ้าของเฟซบุ๊กอย่าง มาร์ค ซัคเคอร์เบิร์ก ที่ปรากฏมาก่อนหน้านี้ ฝ่ายมาร์คบอกว่า ควรมีการพัฒนา AI ต่อไป เพราะมีประโยชน์

ต่อมนุษยชาติ ส่วนอีลอนมองว่า ควรจำกัดขอบเขตไว้ เพราะ AI อาจจะเป็นภัยต่อมนุษยชาติ หากเกิดภาวะที่หลุดออกจากการควบคุมไป

จุดเริ่มต้นของ AI ที่สร้างภาษากันเอง ในเฟซบุ๊กจะเป็นอย่างไรยังไม่มีข้อมูลปรากฏแน่ชัด แต่ที่แน่ๆ คือในโลกโซเชียล ทั้งสื่อและคนอ่านข่าวต่างพากันตกอกตกใจใหญ่ ในทัศนะของ ศ.ดร.โสรัจจ์ หงศ์ลดารมภ์ อาจารย์จากภาควิชาปรัชญา คณะอักษรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ซึ่งเชี่ยวชาญด้านปรัชญาวิทยาศาสตร์และเทคโนโลยี มองว่า คงต้องมาตั้งต้นก่อนว่า AI คืออะไร

อาจารย์โสรัจจ์เล่าเท้าความว่า แนวคิดปัญญาประดิษฐ์หรือ AI มีมานานมาก จุดเริ่มต้นมีมาตั้งแต่สมัยสงครามโลกครั้งที่ 2 โดยแนวคิดของ อลัน ทัวริ่ง บิดาของคอมพิวเตอร์ยุคใหม่ ที่มีเกณฑ์ในการตรวจสอบว่า AI ไหนเป็น AI

ขั้นสูงจริง จะต้องให้คนมาคุย ถ้าคุยแล้วคนไม่รู้ว่าเป็นคอมพิวเตอร์ ถึงจะถือว่าผ่านการทดสอบ แต่ทุกวันนี้ยังไม่มี AI ชนิดใดทำได้

“ทุกวันนี้ไม่มี AI ที่ผ่านการทดสอบแบบทัวริ่งก็จริง แต่มันก็ไม่ได้ปิดกั้นการพัฒนา AI นะ  ตัวอย่างที่เราเห็นชัดๆ เลยอย่าง AI กูเกิลแปลภาษา เราก็มีแล้ว อัลฟ่าโกะ AI ที่เล่นโกะชนะคน เราก็มี แต่ถ้าจะเป็น AI ขั้นสูงจริงแบบที่คนกลัว ในอีก 20-30 ปีนี้ ไม่น่าจะเป็นไปได้” ศ.ดร.โสรัจจ์กล่าว

เพราะเงื่อนไขสำคัญของการมีตัวตนและมีความคิดคือการมีจิตรู้สำนึก (Consciousness) ซึ่งเป็นสิ่งซับซ้อนและยากที่คอมพิวเตอร์จะสามารถเลียนแบบมนุษย์ และมีความเกี่ยวข้องกับการมีร่างกาย ความคิดที่จะเป็นส่วนหนึ่ง

ของร่างกาย หรือการคิดแบบมนุษย์คิด

“ต้องถามก่อนว่า AI เข้าใจไหมกับสิ่งที่ตนเองกำลังทำอยู่ คือทำงานแล้ว

คิดของมันเอง ทำได้ แต่มันอยู่ที่ว่ามันรู้ตัวไหมว่ามันกำลังทำงาน อย่างแปลภาษา

มันแปลได้ แต่มันเข้าใจจริงๆ ไหมว่ามันแปลอะไร รู้จริงไหม คือมันเป็นเรื่องซับซ้อนถ้าจะให้ AI มีจิตสำนึกแบบมนุษย์ มันอาจจะต้องเป็นมนุษย์ก่อน และต้องอาศัยเวลามาก เพราะการเป็นมนุษย์ไม่ใช่อยู่ดีๆ ก็เป็น มันต้องมีพัฒนาการ ต้องอยู่ในชุมชนมนุษย์ ต้องผ่านวิวัฒนาการทางภาษา ประสบการณ์ อะไรต่ออะไรมาก” ศ.ดร.โสรัจจ์ระบุ

ศ.ดร.โสรัจจ์แสดงทัศนะว่า มนุษย์ย่อมกลัวการที่ตัวเองจะถูกแทนที่ด้วยสิ่งไม่มีชีวิต กลัวการไม่มีที่อยู่ กลัวการสูญพันธุ์ การที่มนุษย์กลัว AI ก็เพราะความไม่รู้ว่า AI จะเป็นอย่างไร กลัวหุ่นยนต์ครองโลกเหมือนในภาพยนตร์ฮอลลีวู้ดหลายๆ เรื่อง

“ผมมองว่า ถ้าหุ่นยนต์ครองโลกแล้วมันจะเสียหายตรงไหน ถึงไม่มีมนุษย์ แต่ถ้ามีสิ่งที่ฉลาดกว่า มีประสิทธิภาพกว่ามนุษย์ขึ้นมาแทนเราจะก็ควรเปลี่ยนไปตามพัฒนาการที่มันเกิด เหมือนว่าจิตสำนึกของความเป็นมนุษย์ถูกย้ายจากจุดหนึ่งไปจุดหนึ่ง ซึ่งในที่นี้ก็คือ AI ไม่ได้หายไปแต่ถูกแทนที่”

อาจารย์โสรัจจ์บอกอีกว่า ความท้าทายในเชิงประเด็นจริยธรรมของการอยู่ร่วมกัน ระหว่าง AI กับมนุษย์ก็เป็นอีกเรื่องหนึ่งที่น่าสนใจ ย้อนกลับไปหลายสิบปี ไอแซค

อาสิมอฟ นักเขียนนิยายวิทยาศาสตร์ผู้ยิ่งใหญ่ได้ให้กฎหุ่นยนต์ 3 ข้อ โดยมีสาระสำคัญอยู่ที่หุ่นยนต์ต้องไม่ทำร้ายมนุษย์ ซึ่งเป็นแนวคิดหลักในการพัฒนาหุ่นยนต์

ในปัจจุบัน

“จริยธรรมสำคัญที่เราต้องมาตั้งคำถามคือ ทุกวันนี้เรามีหุ่นยนต์สงครามแล้ว

มีปืนกลที่ตรวจจับคนด้วยระบบเซ็นเซอร์ มีเครื่องบินไอพ่นไร้คนขับ ทำไมเราไม่มองกันตรงนี้เลย ยังไม่รวมถึงในโลกออนไลน์ที่หุ่นยนต์เข้าถึงข้อมูลส่วนตัวเราได้ง่ายมากๆ แล้วถ้าวันดีคืนดีข้อมูลเราถูกนำไปใช้ทำอะไรขึ้นมาจะเป็นอย่างไร เราต้องคุยกันถึงตรงนี้ด้วย” ศ.ดร.โสรัจจ์กล่าว

เหตุการณ์ที่เกิดขึ้นในห้องแล็บของ เฟซบุ๊กอาจเป็นจุดเริ่มต้นของ “จิตรู้สำนึก”  ได้ไหม และหุ่นยนต์จะสามารถขึ้นมาครองโลกได้หรือไม่ยังเป็นเรื่องอนาคตยาวไกล

ที่ ศ.ดร.โสรัจจ์เชื่อว่าไม่ใช่สิ่งที่คนยุคปัจจุบันจะเผชิญ แต่ปัญหาใหญ่มากกว่าที่ควร

เร่งแก้ไขคือ การว่างงานของคน เพราะถูกหุ่นยนต์เข้ามาแทนที่ ต้องทำอย่างไร

“ต่อจากนี้ไปไม่อีกกี่ปี งานลักษณะที่ทำซ้ำๆ จะถูกหุ่นยนต์เข้ามาแทนที่หมด อย่างงานในโรงงาน หรือแม้แต่รถแท็กซี่ไร้คนขับจะมีแล้ว ยังไม่รวมพวกทนายความ ที่ปรึกษากฎหมายออนไลน์ที่เขาวิจัยแล้วพบว่าหุ่นยนต์ตอบได้ดีกว่าสำนักงานกฎหมายทั่วไปอีก แล้วเราจะทำอย่างไรกับคนตกงานจำนวนหลายแสนหลายล้านคนทั่วโลก

ถ้าจะกลัวหุ่นยนต์ ควรกลัวเรื่องนี้มากกว่าเรื่องหุ่นยนต์จะครองโลกแบบในหนังเรื่องเทอร์มิเนเตอร์เถอะ” ศ.ดร.โสรัจจ์ทิ้งท้าย

จุฬาฯ สนับสนุนให้อาจารย์ทำงานวิจัย นับว่าเป็นสิ่งที่ดีมากต่อทั้งอาจารย์ นิสิต รวมถึงภาคประชาสังคม

รองศาสตราจารย์ ดร.สุชนา ชวนิชย์ คณะวิทยาศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย