นักวิจัยเจอ ‘สัตว์เลี้ยงดิจิทัล’ ในซอร์สโค้ดหลุดของ Claude AI

วิเคราะห์: การรั่วไหลของซอร์สโค้ด Claude Code เผยโฉม ‘เอเจนต์’ และฟีเจอร์ลับ
หลัง Anthropic อัปเดต Claude Code เป็นเวอร์ชัน 2.1.88 ผู้ใช้พบว่าแพ็กเกจประกอบด้วยไฟล์ซอร์สแมปที่เปิดเผยฐานโค้ด TypeScript ทั้งหมดของมัน การรั่วไหลนี้ซึ่งมีผู้ใช้บน X เป็นคนแรกที่เปิดเผย ประกอบด้วยโค้ดมากกว่า 512,000 บรรทัด และให้ข้อมูลเชิงลึกที่ไม่เคยมีมาก่อนเกี่ยวกับสถาปัตยกรรมและฟีเจอร์ที่กำลังพัฒนาของโมเดล AI ระดับแนวหน้าตัวนี้
การวิเคราะห์โค้ดที่รั่วไหลออกมาเผยให้เห็นสองแนวคิดหลักที่ทีมพัฒนากำลังทดลองอยู่:
- Constitutional AI (CAI) Studio: เครื่องมือภายในสำหรับปรับแต่งและควบคุมพฤติกรรมของโมเดล AI ตามหลักการหรือ ‘รัฐธรรมนูญ’ ที่กำหนด ซึ่งสะท้อนถึงความพยายามของ Anthropic ในการสร้าง AI ที่ปลอดภัย ตรวจสอบได้ และสอดคล้องกับเจตนาของมนุษย์
- ฟีเจอร์ ‘สัตว์เลี้ยง’ แบบ Tamagotchi: รหัสอ้างอิงถึงฟีเจอร์ที่มีชื่อรหัสว่า ‘Artifacts’ หรือ ‘Project Cafe’ ซึ่งดูเหมือนจะเป็นเอเจนต์ AI แบบเปิดไว้ตลอดเวลา (always-on agent) ที่ผู้ใช้สามารถ ‘เลี้ยง’ และโต้ตอบด้วยได้อย่างต่อเนื่อง คล้ายกับสัตว์เลี้ยงดิจิทัล ซึ่งอาจบ่งชี้ถึงวิสัยทัศน์ในการทำให้ AI เป็นเพื่อนร่วมงานหรือเพื่อนแบบ interactive ที่มีตัวตนมากขึ้น
การรั่วไหลนี้สร้างคำถามสำคัญเกี่ยวกับความปลอดภัยและความลับทางการค้าในอุตสาหกรรม AI ที่แข่งขันกันสูง แม้ว่าจะไม่มีการเปิดเผยข้อมูลแบบจำลองพื้นฐาน (weights) ที่เป็นความลับที่สุด แต่การเปิดเผยตรรกะและแผนการพัฒนาอาจให้ข้อได้เปรียบกับคู่แข่งและทำให้ผู้ใช้กังวลเกี่ยวกับความโปร่งใส
ผลกระทบที่อาจเกิดขึ้น
- ต่อ Anthropic: ความเสียหายด้านชื่อเสียงจากความล้มเหลวด้านความปลอดภัย อาจเร่งการเปิดตัวฟีเจอร์บางอย่าง หรือในทางกลับกัน อาจทำให้ต้องปรับแผนพัฒนาที่ถูกเปิดเผย
- ต่ออุตสาหกรรม: เน้นย้ำถึงความเสี่ยงของการพัฒนาแบบ Agile และการอัปเดตที่รวดเร็ว โดยอาจนำไปสู่มาตรการควบคุมที่เข้มงวดขึ้นสำหรับการแจกจ่ายซอฟต์แวร์
- ต่อผู้ใช้และนักวิจัย: ให้มุมมองที่หาได้ยากเกี่ยวกับการทำงานภายในของบริษัท AI ชั้นนำ ซึ่งมีค่าสำหรับการทำความเข้าใจทิศทางของเทคโนโลยี
FAQ
-
ซอร์สโค้ดที่รั่วไหลนี้เสี่ยงต่อการถูกแฮกหรือไม่?
โค้ดที่รั่วไหลเป็นส่วนของเว็บแอปพลิเคชันไคลเอ็นต์ (TypeScript) ไม่ใช่โมเดล AI หลักหรืออัลกอริธึมการฝึกฝน ดังนั้นความเสี่ยงด้านความปลอดภัยโดยตรงต่ำ แต่เผยให้เห็นสถาปัตยกรรมและฟีเจอร์ที่วางแผนไว้ -
ฟีเจอร์ ‘สัตว์เลี้ยง’ AI นี้หมายความว่าอย่างไร?
มันชี้ให้เห็นถึงแนวโน้มในการทำให้ AI มีปฏิสัมพันธ์และเป็นส่วนตัวมากขึ้น คล้ายกับเพื่อนหรือผู้ช่วยดิจิทัลที่สามารถสร้างความผูกพันกับผู้ใช้ได้ ซึ่งแตกต่างจากเครื่องมือที่ตอบคำถามแบบครั้งต่อครั้ง
English Summary
A significant source code leak from Anthropic’s Claude Code update has exposed over 512,000 lines of TypeScript code, offering an unprecedented look into the company’s development pipeline. The leaked data reveals two key experimental projects: a ‘Constitutional AI Studio’ for fine-tuning model behavior against a set of governing principles, and a Tamagotchi-like always-on AI ‘pet’ or agent, hinting at a future where AI is more interactive and companion-like. While the core model weights remain secure, the incident raises serious concerns about operational security and intellectual property protection in the fiercely competitive AI industry. It provides valuable, albeit unauthorized, insights into how a leading AI firm is attempting to balance rapid innovation with safety and controllability, particularly through its CAI framework. The leak may force Anthropic to alter its development roadmap and serves as a cautionary tale for the sector about the vulnerabilities in modern software deployment practices.
