Nnp, dlboost และ keem bay, ชิป intel ใหม่สำหรับเครือข่าย ia และโครงข่ายประสาทเทียม
สารบัญ:
- NNP, DLBoost และ Keem Bay, ชิป Intel ใหม่สำหรับ AI และเครือข่ายประสาท
- โปรเซสเซอร์: DLBoost
- Movidius: Keem Bay VPU
- โปรเซสเซอร์เครือข่าย Nervana Neural (NNP)
Intel ประกาศฮาร์ดแวร์เฉพาะใหม่ที่งาน AI Summit ในวันที่ 12 พฤศจิกายนซึ่ง อยู่ห่างจากตลาดมวลชน NNP, DLBoost และ Keem Bay ผลิตภัณฑ์เหล่านี้ไม่ต้องสงสัยเลยว่าจุดสูงสุดของการทำงานมากกว่าสามปีนับตั้งแต่การเข้าซื้อกิจการของ Movidius และ Nervana ในช่วงครึ่งหลังของปี 2559 และการสร้างกลุ่มผลิตภัณฑ์ AI ของพวกเขานำโดย Naveen Rao ผู้ร่วมก่อตั้งของ Nervana
NNP, DLBoost และ Keem Bay, ชิป Intel ใหม่สำหรับ AI และเครือข่ายประสาท
Rao ตั้งข้อสังเกตว่า Intel นั้นเป็นผู้เล่นรายใหญ่ในกลุ่ม AI และรายได้ของ AI ในปี 2019 จะเกิน 3.5 พันล้านดอลลาร์ เพิ่มขึ้นจากมากกว่า 1 พันล้านดอลลาร์ในปี 2560 Intel มีฮาร์ดแวร์ที่แตกต่างกันสำหรับทุกคน แนวหน้าของ OpenVINO สำหรับ IOt, Agilex FPGAs, Ice Lake บนพีซี, DLBoost จาก Cascade Lake และยิ่งไปกว่านั้นคือกราฟิคแบบแยกส่วนในอนาคต
โปรเซสเซอร์: DLBoost
Intel แสดงให้เห็นถึงความเข้ากันได้กับ bfloat16 ที่ Cooper Lake 56-core ซึ่งจะออกในปีหน้าซึ่งเป็นส่วนหนึ่งของฟังก์ชั่น AI ของ DLBoost ในโปรเซสเซอร์ Bfloat16 เป็นรูปแบบตัวเลขที่ได้รับความแม่นยำคล้ายกับจุดลอยตัวที่มีความแม่นยำเดียว (FP32) ในการฝึกอบรม AI
Intel ไม่ได้จัดทำประมาณการการปรับปรุงประสิทธิภาพ แต่ได้ระบุว่าเพื่อการอนุมาน Cooper Lake เร็วกว่า Skylake-SP 30 เท่า ในด้านพีซี Ice Lake จะรวมคำแนะนำ DLBoost AVX-512_VNNI เดียวกับที่อยู่ใน Cascade Lake
Movidius: Keem Bay VPU
ในฐานะส่วนหนึ่งของกลยุทธ์ด้านปัญญาประดิษฐ์เช่นกล้องอัจฉริยะหุ่นยนต์โดรนและ VR / AR นั้น Intel ได้ซื้อ Movidius ในปี 2559 Movidius เรียกชิปที่ใช้พลังงานต่ำว่า "หน่วยประมวลผลการมองเห็น" (VPU) พวกเขามีความสามารถในการประมวลผลสัญญาณภาพ (ISP) ตัวเร่งความเร็วฮาร์ดแวร์ตัวประมวลผล MIPS และตัวประมวลผลเวกเตอร์ที่ตั้งโปรแกรมได้ 128- บิต (VLIW) ที่คุณเรียกว่าแกนโกนหนวด
เยี่ยมชมคำแนะนำของเราเกี่ยวกับโปรเซสเซอร์ที่ดีที่สุดในตลาด
Intel ได้ให้รายละเอียดสิ่งที่เรียกว่า 'Gen 3' Intel Movidius VPU มีชื่อรหัสว่า Keem Bay จากข้อมูลของ Intel นั้นมีประสิทธิภาพการอนุมานมากกว่า Myriad X มากกว่า 10 เท่าและกินพลังงานในปริมาณเท่ากัน
โปรเซสเซอร์เครือข่าย Nervana Neural (NNP)
Intel มี NNP สำหรับการฝึกอบรมและการอนุมานโครงข่ายประสาทเทียม การอนุมาน NNP-I ของ Intel นั้นใช้พื้นฐานของสองแกนหลัก Ice Lake Sunny Cove และสิบสองแกนตัวเร่งความเร็ว ICE Intel อ้างว่ามันจะมอบประสิทธิภาพที่ยอดเยี่ยมต่อวัตต์และความหนาแน่นของการคำนวณ ในฟอร์มแฟคเตอร์ M.2 นั้นมีความสามารถ 50 TOPS ที่ 12W ซึ่งเท่ากับ 4.8TOPS / W ตามที่ประกาศไว้ก่อนหน้านี้ Intel เปิดเผยว่าฟอร์มแฟคเตอร์ของการ์ด PCIe ใช้พลังงาน 75W และสร้างสูงถึง 170 TOPS (ด้วยความแม่นยำ INT8)
Intel ได้กล่าวย้ำถึงประสิทธิภาพการขยายขนาดใกล้เชิงเส้นสูงถึง 95% สำหรับการ์ด 32 ใบเทียบกับ 73% สำหรับ Nvidia
Intel ได้เตรียมชิปหลากหลายประเภทสำหรับทุกแนวหน้า, AI, 5G, เครือข่ายประสาทเทียม, การขับขี่แบบอิสระและอื่น ๆ ในตลาดที่ในปีนี้มีรายรับประมาณ 10 พันล้านดอลลาร์ เราจะแจ้งให้คุณทราบ
แบบอักษร Tomshardwareชิป nvidia gm200 จะไม่มาถึงจนถึงปี 2016
ชิป GM200 ของ Nvidia จะผลิตโดยใช้กระบวนการ 16nm TSMC และจะไม่มาถึงจนถึงปี 2016 เนื่องจากความล่าช้าของ TSMC และความต้องการสูงของ Apple สำหรับ 16nm
ชิป Vega 10 จะมีขนาด 484 มม. ²และอยู่ใน siggraph
AMD ยืนยันว่าขนาดของชิป VEGA 10 จะเป็น 484 มม. ²นี่จะเป็น GPU ที่ใหญ่ที่สุดที่ บริษัท ผลิตที่ 14nm FinFet
ชิป Intel ซ่อนเทคโนโลยีที่สามารถใช้เพื่อขโมยข้อมูล
ชิป Intel ซ่อนเทคโนโลยีที่สามารถใช้เพื่อขโมยข้อมูล ค้นหาข้อมูลเพิ่มเติมเกี่ยวกับปัญหาความปลอดภัยนี้