
พรมแดนของ AI ในรูปแบบ Source ปิด: การครอบครองชั่วคราว
ในขณะที่ไอคอนขนาดใหญ่ของ AI ที่ใช้ระบบปิดเหมือน OpenAI และ Anthropic ครอบครองการสะท้อนแสงสว่าง อนาคตเป็นของ Open Source ความดึงดูดของระบบเอนทรานเจนต้องยอมรับ แต่ความสามารถในการมองดูของสายตาที่มีความหมายควรมองไปที่ Open Source สำหรับประโยชน์ที่ยืนยาว
อันตรายของการนำอัจฉริยะไปที่ภายนอก
สำหรับบางคนการใช้ระบบปิด AI APIs อาจเป็นวิธีที่ดีต่อไป อย่างไรก็ตามสำหรับบริษัทที่มีความรู้สึกถึง AI อย่างลึกซึ้งนี่คือเสมือนการเล่นกับเพลิง กลยุทธ์? เริ่มด้วย AI ปิด แต่เร็วๆ นี้เปลี่ยนไปดูแลโมเดลในบริษัทเอง
นิทานเรื่องการเหตุผลใหญ่ : ความสำคัญของการคิด
ข้อต่อความคิดที่มีค่ามาก เช่น สรุปและคำตอบคำถาม ไม่ขึ้นอยู่กับการคิดหรือไม่ Open Source models เป็นผู้ชนะในด้านนี้อยู่แล้ว สิ่งที่จริงๆ ที่เป็นตัวเปลี่ยนเกมคือบริบทที่แบบกว้างและความสามารถในการสร้างเนื้อหาด้วยความแม่นยำ
พระคาถา Open Source : การควบคุมเป็นกษัตริย์
Open Source AI ถือเป็นคำที่เหมือนไม่เคยมีที่สรรพสิ่งเล่นที่ไม่ซ้ำกับที่อื่น ๆ ไม่ว่าจะเป็นการปรับเปลี่ยน laten, การปรับความจุ, การโครงสร้างเอาท์พุทหรือการปรับปรุงด้วยข้อมูลที่เฉพาะเจาะจง Open source เป็นคำตอบ ในทางตรงกัน ๆ กับตัวโมเดลที่ปิดเหมือนกับกวางที่ไม่คาดการณ์ได้เสมอ ๆ การเปลี่ยนแปลงอยู่เสมอ
การถอดรหัสกล่องดำ : ความไว้วางใจผ่านความโปร่งใส
ความลำบากในความลึกของกล่องดำในโมเดลที่ปิดเป็นจุดอ่อนของมัน ส่วนโมเดล Open source บังคับให้สายตาทั่วโลกมองดูเสมอโดยสนใจในการทบทวนโดยคู่แข่งและการตรวจสอบอย่างเคร่งครัด เพื่อที่จะไว้วางใจคือที่จะเข้าใจและความเข้าใจมาจากการลงไปในการทำงานภายในของ AI
ความผาสุก : ระยะเวลาที่ผ่านไป
ใช่ ในปัจจุบัน API ปิดรอบความง่าย แต่เมื่อ Open source ค่อย ๆ วิวัฒนามันไม่เพียงแค่ความง่ายแต่ยังความปรับแต่งที่ไม่เป็นที่เทียบเท่า ข้อความเป็นชัดเจน: หลีกเลี่ยงการดึงดูดชั่วขณะของระบบปิดและวางรากฐานด้วย Open Source.
- “เกี่ยวกับโอกาสและความเสี่ยงของโมเดลรากฐาน” by Bommasani, R., et al. (2021) 1.
- “ทำไมคุณไม่ควรสร้างระบบการตรวจสอบผู้ใช้ของคุณเอง” by Bosworth, M. (2010) from Coding Horror Blog2.
- “วิธีทั่วไปในการเพิ่มความเป็นส่วนตัวแต่งให้กับขั้นตอนการฝึกอย่างต่อเนื่อง” by McMahan, H. B., et al. (2018) 3.
- “Loras ปรับปรุงคุณภาพและความสอดคล้องในการสร้างภาพ” by Raposo, D., et al. (2023) 4.
- “Axiom: การฝึกโมเดลภาษาขนาดใหญ่และยักษ์ที่รวดเร็วและที่มีประสิทธิภาพ” by Sinitsin, I., et al. (2023) 5.