Nvidia information ข้อมูลทั้งหมด】
สารบัญ:
- ประวัติ Nvidia
- Nvidia GeForce และ Nvidia Pascal เป็นผู้นำเกม
- ปัญญาประดิษฐ์และสถาปัตยกรรมของวอลตา
- อนาคตของ Nvidia ต้องผ่านทัวริงและแอมป์
- NVIDIA G-Sync ยุติปัญหาการซิงค์รูปภาพ
Nvidia Corporation รู้จักกันในอีกชื่อหนึ่งว่า Nvidia เป็น บริษัท เทคโนโลยีของอเมริกาซึ่งจดทะเบียนในเดลาแวร์และตั้งอยู่ที่ซานตาคลาร่ารัฐแคลิฟอร์เนีย Nvidia ออกแบบหน่วยประมวลผลกราฟิกสำหรับวิดีโอเกมและตลาดมืออาชีพรวมถึงระบบหน่วยชิป (SoC) สำหรับตลาดยานยนต์และคอมพิวเตอร์เคลื่อนที่ สายผลิตภัณฑ์หลักของ GeForce นั้นคือการแข่งขันโดยตรงกับผลิตภัณฑ์ Radeon ของ AMD
เราขอแนะนำให้อ่านฮาร์ดแวร์ PC และส่วนประกอบที่ ดีที่สุดของเรา:
นอกเหนือจากการผลิต GPUs แล้ว Nvidia ยังให้ความสามารถในการประมวลผลแบบขนานทั่วโลกแก่นักวิจัยและนักวิทยาศาสตร์ ทำให้พวกเขาสามารถรันแอพพลิเคชั่นประสิทธิภาพสูงได้อย่างมีประสิทธิภาพ เมื่อไม่นานมานี้ได้ย้ายเข้าสู่ตลาดคอมพิวเตอร์เคลื่อนที่ซึ่งผลิตโปรเซสเซอร์ Tegra มือถือสำหรับเครื่องเล่นวิดีโอเกมแท็บเล็ตระบบนำทางอัตโนมัติและระบบความบันเทิงในรถยนต์ สิ่งนี้นำไปสู่ Nvidia กลายเป็น บริษัท ที่มุ่งเน้นไปที่ตลาดสี่แห่ง ตั้งแต่ปี 2014 : การเล่นเกมการสร้างภาพระดับมืออาชีพศูนย์ข้อมูลและปัญญาประดิษฐ์และรถยนต์
ดัชนีเนื้อหา
ประวัติ Nvidia
Nvidia ก่อตั้งขึ้นในปี 1993 โดย Jen-Hsun Huang Chris Malachowsky และ Curtis Priem ผู้ร่วมก่อตั้งของ บริษัท ทั้งสามตั้งสมมติฐานว่าทิศทางที่ถูกต้องสำหรับการประมวลผลจะต้องผ่านการประมวลผลแบบเร่งกราฟิกโดยเชื่อว่าแบบจำลองการคำนวณนี้สามารถแก้ปัญหาที่การคำนวณทั่วไปไม่สามารถแก้ไขได้ พวกเขายัง กล่าวอีกว่าวิดีโอเกมเป็นปัญหาที่ท้าทายมากที่สุดในการคำนวณและมียอดขายที่สูงอย่างไม่น่าเชื่อ
จาก บริษัท วิดีโอเกมขนาดเล็กไปจนถึงยักษ์ใหญ่ด้านปัญญาประดิษฐ์
บริษัท เกิดมาด้วยเงินทุนเริ่มต้น 40, 000 ดอลลาร์ในขั้นต้นไม่มีชื่อและผู้ก่อตั้งร่วมได้ตั้งชื่อไฟล์ NV ทั้งหมดของตนเช่นเดียวกับใน "รุ่นถัดไป" ความจำเป็นในการรวม บริษัท ทำให้ผู้ร่วมก่อตั้งทบทวนคำทั้งหมดด้วยตัวอักษรสองตัวซึ่งทำให้พวกเขา "invidia" คำภาษาละตินที่แปลว่า "อิจฉา"
การเปิดตัว RIVA TNT ในปี 1998 ได้รวมชื่อเสียงของ Nvidia ในการพัฒนาอะแดปเตอร์กราฟิก ในช่วงปลายปี 1999, Nvidia เปิดตัว GeForce 256 (NV10) ซึ่งแนะนำการเปลี่ยนแปลงและแสงสว่างระดับผู้บริโภค (T&L) ที่สะดุดตาที่สุดในฮาร์ดแวร์ 3 มิติ ใช้งานที่ 120 MHz และมีพิกเซลสี่บรรทัดใช้การเร่งวิดีโอขั้นสูงการชดเชยการเคลื่อนไหวและการผสมภาพย่อยของฮาร์ดแวร์ GeForce มีประสิทธิภาพที่เหนือกว่าผลิตภัณฑ์ที่มีอยู่ในระยะกว้าง
เนื่องจากความสำเร็จของผลิตภัณฑ์ของ บริษัท Nvidia ได้รับสัญญาในการพัฒนาฮาร์ดแวร์กราฟิกสำหรับเกมคอนโซล Xbox ของ Microsoft ทำให้ Nvidia มีรายได้ล่วงหน้า 200 ล้านดอลลาร์ อย่างไรก็ตามโครงการใช้วิศวกรที่ดีที่สุดจากโครงการอื่น ในระยะสั้นสิ่งนี้ไม่สำคัญและ GeForce2 GTS ถูกจัดส่งในช่วงฤดูร้อนปี 2000 ในเดือนธันวาคม 2000 Nvidia ได้บรรลุข้อตกลงเพื่อซื้อสินทรัพย์ทางปัญญาของคู่แข่ง 3dfx ซึ่งเป็นผู้บุกเบิกด้านเทคโนโลยีกราฟิก 3 มิติสำหรับผู้บริโภค ผู้เป็นผู้นำในภาคสนามตั้งแต่กลางปี 1990 ถึงปี 2000 กระบวนการซื้อกิจการสิ้นสุดลงในเดือนเมษายน 2545
ในเดือนกรกฎาคม 2545 Nvidia ได้ซื้อ Exluna ด้วยจำนวนเงินที่ไม่เปิดเผย Exluna รับผิดชอบในการสร้างเครื่องมือการแสดงผลซอฟต์แวร์ต่าง ๆ ต่อมาในเดือนสิงหาคม 2546 Nvidia ได้ซื้อ MediaQ ในราคาประมาณ 70 ล้านดอลลาร์ และยังได้รับ iReady ซึ่งเป็นผู้ให้บริการโซลูชัน TCP / IP และ iSCSI offload ที่มีประสิทธิภาพสูงในวันที่ 22 เมษายน 2004
ความสำเร็จที่ยอดเยี่ยมของ Nvidia ในตลาดวิดีโอเกมคือ ในเดือนธันวาคม 2547 มีการประกาศว่าจะช่วย Sony ในการออกแบบโปรเซสเซอร์กราฟิก RSX ของ PlayStation 3 คอนโซลวิดีโอเกมรุ่นใหม่จาก บริษัท ญี่ปุ่นที่ มันเป็นงานที่ยากในการทำซ้ำความสำเร็จของรุ่นก่อนซึ่งขายดีที่สุดในประวัติศาสตร์
ในเดือนธันวาคม 2549 Nvidia ได้รับการอ้างอิงจากกระทรวงยุติธรรมของสหรัฐอเมริกา ด้วยความเคารพต่อการละเมิดการผูกขาดที่เป็นไปได้ ในอุตสาหกรรมกราฟิกการ์ด ในเวลานั้นเอเอ็มดีได้กลายเป็นคู่แข่งที่ยิ่งใหญ่หลังจากการซื้อ ATI ในระยะหลัง ตั้งแต่นั้นมา AMD และ Nvidia เป็นผู้ผลิตกราฟิกการ์ดวิดีโอเกมรายเดียวเท่านั้นไม่ลืมที่จะรวมชิปของ Intel
Forbes ได้ชื่อว่า Nvidia เป็น บริษัท ที่ดีที่สุดแห่งปีในปี 2550 โดยอ้างถึงความสำเร็จที่เกิดขึ้นในช่วงห้าปีที่ผ่านมา เมื่อวันที่ 5 มกราคม 2550 Nvidia ประกาศเสร็จสิ้นการเข้าซื้อกิจการของ PortalPlayer, Inc และ ในเดือนกุมภาพันธ์ 2551 Nvidia ได้ซื้อ Ageia ผู้พัฒนาเครื่องมือฟิสิกส์ PhysX และ หน่วยประมวลผล ฟิสิกส์ที่ ใช้เครื่องยนต์นี้ Nvidia ประกาศว่า บริษัท วางแผนที่จะรวมเทคโนโลยี PhysX เข้ากับผลิตภัณฑ์ GeForce GPU ในอนาคต
Nvidia ประสบปัญหาอย่างมากในเดือนกรกฎาคม 2551 เมื่อได้รับรายได้ลดลงประมาณ 200 ล้านดอลลาร์หลังจากมีรายงานว่าชิปเซ็ตมือถือและ GPU มือถือบางตัวที่ผลิตโดย บริษัท นั้นมีอัตราความล้มเหลวที่ผิดปกติ เนื่องจากข้อบกพร่องในการผลิต ในเดือนกันยายน 2551, Nvidia ได้กลายเป็นหัวข้อของการฟ้องร้องดำเนินคดีในชั้นเรียนโดยผู้ที่ได้รับผลกระทบโดยอ้างว่า GPU ที่บกพร่องนั้นได้รวมอยู่ในโน้ตบุ๊กบางรุ่นที่ผลิตโดย Apple, Dell และ HP ละครทีวีสิ้นสุดลงในเดือนกันยายน 2010 เมื่อ Nvidia บรรลุข้อตกลงว่าเจ้าของแล็ปท็อปที่ได้รับผลกระทบจะได้รับการชดเชยค่าซ่อมหรือในบางกรณีการเปลี่ยนสินค้า
ในเดือนพฤศจิกายน 2554 Nvidia เปิดตัวระบบชิป ARG Tegra 3 สำหรับอุปกรณ์พกพา หลังจากเริ่มนำเสนอในงาน Mobile World Congress Nvidia อ้างว่าชิปนั้นเป็นซีพียูมือถือแบบ quad-core ตัวแรก ในเดือนมกราคม 2013, Nvidia เปิดตัว Tegra 4 เช่นเดียวกับ Nvidia Shield, เกมคอนโซลพกพาที่ใช้ Android ซึ่งขับเคลื่อนโดยโปรเซสเซอร์ใหม่
เมื่อวันที่ 6 พฤษภาคม 2559 Nvidia เปิดตัวกราฟิกการ์ด GeForce GTX 1080 และ 1, 070 ซึ่งเป็นครั้งแรกที่อิงตามสถาปัตยกรรม Pascal microarchitecture ใหม่ Nvidia อ้างว่าทั้งสองรุ่นมีประสิทธิภาพสูงกว่าโมเดล Titan X ของ Maxwell การ์ดเหล่านี้รวมหน่วยความจำ GDDR5X และ GDDR5 ตามลำดับและใช้กระบวนการผลิต 16nm สถาปัตยกรรม Pascal ยังรองรับคุณสมบัติฮาร์ดแวร์ใหม่ที่รู้จักกันในชื่อ Multiple multiple projection (SMP) ซึ่งได้รับการออกแบบมาเพื่อปรับปรุงคุณภาพ ของจอภาพหลายจอและ การเรนเดอร์ เสมือนจริง Pascal ได้เปิดใช้งานการผลิตแล็ปท็อปที่ตรงตามมาตรฐานการออกแบบ Max-Q ของ Nvidia
ในเดือนพฤษภาคม 2560 Nvidia ประกาศการเป็นพันธมิตรกับ Toyota Motor Corp ซึ่งภายหลังจะใช้แพลตฟอร์มปัญญาประดิษฐ์ Drive X ซีรีส์ ของ Nvidia สำหรับยานยนต์อิสระ ในเดือนกรกฎาคมปี 2017 Nvidia และยักษ์ใหญ่ด้านการค้นหา Baidu ของจีนประกาศการเป็นพันธมิตรที่มีประสิทธิภาพของ AI ซึ่งรวมถึงคลาวด์คอมพิวติ้งการขับขี่แบบอิสระอุปกรณ์สำหรับผู้บริโภค
Nvidia GeForce และ Nvidia Pascal เป็นผู้นำเกม
GeForce เป็นชื่อแบรนด์ของการ์ดกราฟิกที่ใช้หน่วยประมวลผลกราฟิก (GPUs) ที่สร้างโดย Nvidia ตั้งแต่ปี 1999 จนถึงปัจจุบันซีรี่ส์ GeForce ได้รู้จักกันมา สิบหกรุ่นนับตั้งแต่ก่อตั้งขึ้น รุ่นที่เน้นผู้ใช้มืออาชีพของการ์ดเหล่านี้อยู่ภายใต้ชื่อ Quadro และมีคุณสมบัติที่แตกต่างบางอย่างในระดับไดรเวอร์ การแข่งขันโดยตรงของ GeForce นั้นคือ AMD ด้วย Radeon cards
Pascal เป็นชื่อรหัสสำหรับ microarchitecture GPU ล่าสุดที่พัฒนาโดย Nvidia ที่ได้เข้าสู่ตลาดวิดีโอเกมในฐานะผู้สืบทอดของ Maxwell architecture รุ่นก่อนหน้า สถาปัตยกรรม Pascal ได้รับการ เปิดตัวครั้งแรกในเดือนเมษายน 2559 ด้วยการเปิดตัว Tesla P100 สำหรับเซิร์ฟเวอร์ในวันที่ 5 เมษายน 2016 ปัจจุบัน Pascal ถูกนำไปใช้ใน GeForce 10 series เป็นหลักโดยมี GeForce GTX 1080 และ GTX การ์ดวิดีโอเกม 1070 ใบแรกถูกปล่อยออกมาพร้อมกับสถาปัตยกรรมนี้ในวันที่ 17 พฤษภาคม 2016 และ 10 มิถุนายน 2016 ตามลำดับ Pascal ผลิตขึ้นโดยใช้กระบวนการ 16nm FinFET ของ TSMC ทำให้สามารถนำเสนอประสิทธิภาพและพลังงานที่เหนือกว่าเมื่อเทียบกับ Maxwell ซึ่งผลิตที่ 28nm FinFET
สถาปัตยกรรม Pascal ถูก จัดระเบียบภายในในสิ่งที่เรียกว่าสตรีมมัลติโปรเซสเซอร์ ( SM), หน่วยการทำงานที่ประกอบด้วย 64 CUDA Cores ซึ่งแบ่งออกเป็นสองบล็อกประมวลผล 32 CUDA Cores แต่ละอัน ของพวกเขาและมาพร้อมกับบัฟเฟอร์การเรียนการสอน, การวางแผนวาร์ป, 2 หน่วยการแมปพื้นผิวและ 2 หน่วยการจัดส่ง ไดรฟ์ SM เหล่านี้เทียบเท่ากับ CU ของ AMD
สถาปัตยกรรม Pascal ของ Nvidia ได้รับการออกแบบให้มีประสิทธิภาพและทันสมัยที่สุดในโลกของเกม ทีมวิศวกรของ Nvidia ได้ใช้ความพยายามอย่างมากในการสร้างสถาปัตยกรรม GPU ที่มีความเร็วสัญญาณนาฬิกาสูงมากในขณะที่ยังคงใช้พลังงานได้อย่างแน่นหนา เพื่อให้บรรลุเป้าหมายนี้การออกแบบอย่างพิถีพิถันและได้รับการเลือกให้เหมาะสมในทุกวงจรทำให้ ปาสคาลสามารถเข้าถึงความถี่ที่สูงกว่าแมกซ์เวล 40% ซึ่งสูงกว่ากระบวนการที่อนุญาตให้อยู่ที่ 16 nm ไม่มีการปรับให้เหมาะสมทั้งหมดในระดับการออกแบบ
หน่วยความจำเป็นองค์ประกอบสำคัญในประสิทธิภาพของกราฟิกการ์ดเทคโนโลยี GDDR5 ได้รับการประกาศในปี 2009 ดังนั้นจึงล้าสมัยไปแล้วสำหรับการ์ดกราฟิกที่ทรงพลังที่สุดในปัจจุบัน นั่นคือเหตุผลที่ Pascal รองรับหน่วยความจำ GDDR5X ซึ่งเป็นมาตรฐานอินเตอร์เฟสหน่วยความจำที่เร็วที่สุดและทันสมัยที่สุดในประวัติศาสตร์ในช่วงเวลาที่เปิดตัว การ์ดกราฟิกเหล่านี้ถึงความเร็วในการถ่ายโอนสูงถึง 10 Gbps หรือเกือบ 100 picoseconds ระหว่างบิต ของข้อมูล หน่วยความจำ GDDR5X ยังช่วยให้กราฟิกการ์ดใช้พลังงานน้อยลงเมื่อเทียบกับ GDDR5 เนื่องจากแรงดันไฟฟ้าปฏิบัติการคือ 1.35V เทียบกับ 1.5V หรือมากกว่านั้นที่ชิป GDDR5 เร็วกว่าต้องการ แรงดันไฟฟ้าที่ลดลงนี้แปลเป็นความถี่ในการใช้งานที่สูงขึ้น 43% พร้อมการสิ้นเปลืองพลังงานเท่ากัน
นวัตกรรม Pascal ที่สำคัญอีกอย่างมาจาก เทคนิคการบีบอัดหน่วยความจำโดยไม่สูญเสียประสิทธิภาพ ซึ่งช่วยลดความต้องการแบนด์วิดท์ของ GPU Pascal รวมถึงเทคโนโลยีการบีบอัดสีเดลต้ารุ่นที่สี่ ด้วยการ บีบอัดสีเดลต้า GPU จะวิเคราะห์ฉากเพื่อคำนวณพิกเซลที่สามารถบีบอัดข้อมูลได้โดยไม่ลดคุณภาพของฉาก ในขณะที่สถาปัตยกรรม Maxwell ไม่สามารถบีบอัดข้อมูลที่เกี่ยวข้องกับองค์ประกอบบางอย่างเช่นพืชและชิ้นส่วนของรถในเกม Project Cars ได้ Pascal สามารถบีบอัดข้อมูลส่วนใหญ่ในองค์ประกอบเหล่านี้ได้ดังนั้นจึงมีประสิทธิภาพมากกว่า แมกซ์เวล ด้วยเหตุนี้ Pascal จึงสามารถลดจำนวนไบต์ที่ต้องดึงข้อมูลออกจากหน่วยความจำได้อย่างมีนัยสำคัญ การลดลงของไบต์นี้แปลเป็นแบนด์วิดท์ที่มีประสิทธิภาพเพิ่มขึ้น 20% ส่งผลให้เพิ่มขึ้น 1.7 เท่าของแบนด์วิดท์ด้วยการใช้หน่วยความจำ GDDR5X เมื่อเปรียบเทียบกับสถาปัตยกรรม GDDR5 และ Maxwell
Pascal ยังเสนอการปรับปรุงที่สำคัญเกี่ยวกับ Asynchronous Computing สิ่งที่สำคัญมากเนื่องจากในปัจจุบันปริมาณงานมีความซับซ้อนมาก ด้วยการปรับปรุงเหล่านี้สถาปัตยกรรม Pascal มีประสิทธิภาพมากขึ้นในการกระจายโหลดระหว่างหน่วย SM ที่แตกต่างกันทั้งหมด ซึ่งหมายความว่ามีแกน CUDA ที่ไม่ได้ใช้งานแทบจะทั้งหมด สิ่งนี้ช่วยให้การเพิ่มประสิทธิภาพของ GPU นั้นดียิ่งขึ้นทำให้ใช้ทรัพยากรทั้งหมดที่มีอยู่ได้ดีขึ้น
ตารางต่อไปนี้สรุปคุณสมบัติที่สำคัญที่สุดของการ์ด GeForce ที่ใช้ Pascal ทั้งหมด
การ์ดกราฟิกการ์ด NVIDIA GEFORCE PASCAL |
||||||
แกน CUDA | ความถี่ (MHz) | หน่วยความจำ | อินเตอร์เฟสหน่วยความจำ | แบนด์วิดธ์หน่วยความจำ (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 บิต | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 บิต | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 บิต | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3GB GDDR5 | 192 บิต | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 บิต | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8GB GDDR5 | 256 บิต | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8GB GDDR5 | 256 บิต | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 บิต | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 บิต | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 บิต | 547 | 250 |
ปัญญาประดิษฐ์และสถาปัตยกรรมของวอลตา
GPU ของ Nvidia ใช้กันอย่างแพร่หลายในด้านการเรียนรู้อย่างลึกซึ้งปัญญาประดิษฐ์และการวิเคราะห์ข้อมูลจำนวนมากอย่างรวดเร็ว บริษัท ได้พัฒนาการเรียนรู้อย่างลึกล้ำโดยใช้เทคโนโลยี GPU เพื่อใช้ปัญญาประดิษฐ์ในการจัดการปัญหาต่าง ๆ เช่นการตรวจจับมะเร็งการพยากรณ์อากาศและรถยนต์ที่ขับขี่ด้วยตนเองเช่น Tesla ที่มีชื่อเสียง
เป้าหมายของ Nvidia คือการช่วยให้เครือข่ายเรียนรู้ที่จะ“ คิด ” GPUs ของ Nvidia ทำงานได้ดีเป็นพิเศษสำหรับงานการเรียนรู้ลึกเพราะได้รับการออกแบบสำหรับการคำนวณแบบขนานและทำงานได้ดีในการจัดการเวกเตอร์และเมทริกซ์ที่เหนือกว่าในการเรียนรู้ลึก GPU ของ บริษัท นั้นถูกใช้งานโดยนักวิจัยห้องปฏิบัติการ บริษัท เทคโนโลยีและองค์กรธุรกิจ ในปี 2009, Nvidia เข้าร่วมในสิ่งที่เรียกว่าบิ๊กแบงสำหรับการเรียนรู้เชิง ลึกเนื่องจากเครือข่ายประสาทการเรียนรู้เชิงลึกถูกรวมเข้ากับหน่วยประมวลผลกราฟิกของ บริษัท ในปีเดียวกันนั้น Google Brain ใช้ GPU ของ Nvidia เพื่อสร้างเครือข่ายประสาทที่มีความสามารถในการเรียนรู้ด้วยเครื่องโดย Andrew Ng ระบุว่าพวกเขาสามารถเพิ่มความเร็วของระบบการเรียนรู้ลึกได้ถึง 100 เท่า
ในเดือนเมษายน 2559 Nvidia ได้เปิดตัวซูเปอร์คอมพิวเตอร์ DGX-1 ซูเปอร์คอมพิวเตอร์ 8-GPU เพื่อเพิ่มความสามารถของผู้ใช้ในการเรียนรู้เชิงลึกโดยการรวม GPU เข้ากับซอฟต์แวร์ที่ออกแบบมาโดยเฉพาะ Nvidia ยังได้พัฒนาเครื่องเสมือน Nvidia Tesla K80 และ P100 ที่ใช้ GPU ซึ่งมีอยู่ใน Google Cloud ซึ่งติดตั้งในเดือนพฤศจิกายน 2559 Microsoft ได้เพิ่มเซิร์ฟเวอร์ที่ใช้เทคโนโลยี GPU ของ Nvidia ในตัวอย่างของซีรีย์ N ขึ้นอยู่กับการ์ด Tesla K80 Nvidia ยังร่วมมือกับ IBM เพื่อสร้างชุดซอฟต์แวร์ที่ช่วยเพิ่มความสามารถของ AI ของ GPU ในปี 2560 GPU ของ Nvidia ได้รับการนำทางออนไลน์ที่ RIKEN Center สำหรับโครงการ Advanced Intelligence สำหรับฟูจิตสึ
ในเดือนพฤษภาคม ปี 2018 นักวิจัยที่แผนกปัญญาประดิษฐ์ของ Nvidi a ตระหนักถึงความเป็นไปได้ที่ หุ่นยนต์สามารถเรียนรู้ที่จะทำงานโดยเพียงแค่สังเกตคนที่ทำงานเดียวกัน เพื่อให้บรรลุผลดังกล่าวพวกเขาได้สร้างระบบที่หลังจากการตรวจสอบและทดสอบสั้น ๆ ตอนนี้สามารถใช้เพื่อควบคุมหุ่นยนต์อเนกประสงค์รุ่นต่อไป
Volta เป็นชื่อรหัสสำหรับ microarchitecture GPU ที่ทันสมัยที่สุดที่พัฒนาโดย Nvidia เป็นสถาปัตยกรรมตัวต่อของ Pascal และได้รับการประกาศให้เป็นส่วนหนึ่งของแผนการทำงานในอนาคตในเดือนมีนาคม 2013 สถาปัตยกรรม ได้รับการตั้งชื่อตาม Alessandro Volta นักฟิสิกส์เคมีและนักประดิษฐ์ของแบตเตอรี่ไฟฟ้า สถาปัตยกรรม Volta ยังไม่ถึงภาคเกมแม้ว่ามันจะทำเช่นนั้นกับการ์ดกราฟิก Nvidia Titan V ที่ มุ่งเน้นไปที่กลุ่มผู้บริโภคและยังสามารถใช้ในอุปกรณ์เล่นเกม
Nvidia Titan V นี้เป็นกราฟิกการ์ดหลักของ GV100 และหน่วยความจำ HBM2 สามชุดทั้งหมดนี้รวมอยู่ในแพ็คเกจ เดียว การ์ดนี้มีหน่วยความจำ HBM2 ทั้งหมด 12 GB ซึ่งทำงานผ่านอินเตอร์เฟสหน่วยความจำ 3072 บิต GPU ของมันประกอบด้วย ทรานซิสเตอร์ มากกว่า 21 ล้านตัว, 5, 120 CUDA cores และ 640 Tensor cores เพื่อมอบประสิทธิภาพ 110 TeraFLOPS ในการเรียนรู้อย่างลึกซึ้ง ความถี่ในการใช้งานคือฐาน 1200 MHz และ 1455 MHz ในโหมดเทอร์โบในขณะที่หน่วยความจำทำงานที่ 850 MHz ซึ่งมีแบนด์วิดธ์ที่ 652.8 GB / s รุ่น CEO Edition เพิ่งมีการประกาศที่เพิ่มหน่วยความจำสูงสุด 32GB
กราฟิกการ์ดตัวแรกที่ผลิตโดย Nvidia ที่มีสถาปัตยกรรม Volta คือ Tesla V100 ซึ่งเป็นส่วนหนึ่งของระบบ Nvidia DGX-1 Tesla V100 ใช้ประโยชน์จาก แกน GV100 ซึ่งวางจำหน่ายในวันที่ 21 มิถุนายน 2017 Volta GV100 GPU สร้างขึ้นในกระบวนการผลิต 12nm FinFET โดย มีหน่วยความจำ HBM2 ขนาด 32GB ที่สามารถส่งมอบแบนด์วิดท์สูงถึง 900GB / s
Volta นำเสนอ Nvidia Tegra SoC ล่าสุดที่เรียกว่า Xavier ซึ่งประกาศเมื่อวันที่ 28 กันยายน 2559 Xavier ประกอบด้วย ทรานซิสเตอร์ 7 พันล้านตัวและแกน ARMv8 แบบกำหนดเอง 8 ตัวพร้อมกับ GPU Volta ที่มี 512 CUDA cores และ TPU ของ โอเพ่นซอร์ส (Tensor Processing Unit) เรียกว่า DLA (Deep Learning Accelerator) ซาเวียร์สามารถเข้ารหัสและถอดรหัสวิดีโอที่ความละเอียด 8K Ultra HD (7680 × 4320 พิกเซล) แบบเรียลไทม์ทั้งหมดด้วย TDP 20-30 วัตต์และขนาดตายประมาณ 300 มม. ประมาณ 12 กระบวนการผลิต 12 กระบวนการ นาโนเมตร FinFET
สถาปัตยกรรม Volta โดดเด่นด้วยการเป็นคนแรกที่รวม Tensor Core แกนที่ออกแบบมาเป็นพิเศษเพื่อให้ประสิทธิภาพที่เหนือกว่ามากในงานการเรียนรู้ลึกเมื่อเทียบกับแกน CUDA ปกติ Tensor Core คือหน่วยที่คูณเมทริกซ์ FP16 4 × 4 สองตัวจากนั้นเพิ่มเมทริกซ์ FP16 หรือ FP32 ตัวที่สามให้กับผลลัพธ์ โดยใช้การรวมที่เพิ่มเข้ามาและการดำเนินการคูณเพื่อให้ได้ผลลัพธ์ FP32 ที่สามารถลดระดับเป็นผล FP16 Tensor นิวเคลียสมีจุดประสงค์เพื่อเร่งการฝึกอบรมเครือข่ายประสาท
Volta ยังโดดเด่นด้วยการรวมอินเตอร์เฟส NVLink ขั้นสูงซึ่งเป็นโปรโตคอลการสื่อสาร แบบ wire-based สำหรับการสื่อสารเซมิคอนดักเตอร์ระยะสั้นที่พัฒนาโดย Nvidia ซึ่งสามารถใช้สำหรับการถ่ายโอนข้อมูลรหัสและการควบคุมในระบบประมวลผลตาม CPU และ GPU และที่ใช้ GPU NVLink ระบุการเชื่อมต่อแบบจุดต่อจุดพร้อมอัตราข้อมูล 20 และ 25 Gb / s ต่อช่องข้อมูล และต่อที่อยู่ในเวอร์ชันแรกและรุ่นที่สอง อัตราข้อมูลทั้งหมดในระบบโลกแห่งความจริงคือ 160 และ 300 GB / s สำหรับผลรวมทั้งหมดของอินพุตและเอาต์พุตข้อมูลสตรีม ผลิตภัณฑ์ของ NVLink ได้รับการแนะนำให้รู้จักกับการมุ่งเน้นไปที่พื้นที่แอพพลิเคชันที่มีประสิทธิภาพสูง NVLINK ได้รับการประกาศครั้งแรกในเดือนมีนาคม 2014 และใช้การเชื่อมต่อสัญญาณความเร็วสูงที่เป็นกรรมสิทธิ์ซึ่งพัฒนาและพัฒนาโดย Nvidia
ตารางต่อไปนี้สรุปคุณสมบัติที่สำคัญที่สุดของการ์ดที่ใช้ Volta:
การ์ดกราฟิก NVIDIA VOLTA |
||||||||
แกน CUDA | Core Tensor | ความถี่ (MHz) | หน่วยความจำ | อินเตอร์เฟสหน่วยความจำ | แบนด์วิดธ์หน่วยความจำ (GB / s) | TDP (W) | ||
เทสลา V100 | 5120 | 640 | 1465 | 32GB HBM2 | 4, 096 บิต | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3, 072 บิต | 652 | 250 | |
GeForce Titan V CEO Edition | 5120 | 640 | 1200/1455 | 32GB HBM2 | 4, 096 บิต | 900 | 250 |
อนาคตของ Nvidia ต้องผ่านทัวริงและแอมป์
สถาปัตยกรรมของ Nvidia ทั้งสองในอนาคตจะเป็นทัวริงและแอมป์ ตามข่าวลือทั้งหมดที่มีมาจนถึงปัจจุบันเป็นไปได้ว่าเมื่อคุณอ่านบทความนี้หนึ่งในนั้นได้ประกาศอย่างเป็นทางการแล้ว สำหรับตอนนี้ยังไม่มีใครทราบแน่ชัดเกี่ยวกับสถาปัตยกรรมทั้งสองนี้ถึงแม้ว่าจะ มีการกล่าวกันว่าทัวริงจะเป็นเวอร์ชั่นย่อของ Volta สำหรับตลาดเกม แต่ในความเป็นจริงแล้วคาดว่าจะถึงกระบวนการผลิตเดียวกันที่ 12 นาโนเมตร
แอมป์ดูเหมือนว่าสถาปัตยกรรมของทายาทของทัวริงแม้ว่ามันจะเป็นตัวตายตัวแทนของวอลต้าในภาคปัญญาประดิษฐ์ ไม่มีอะไรรู้เรื่องนี้อย่างแน่นอนแม้ว่ามันจะดูสมเหตุสมผลที่คาดว่ามันจะมาถึงที่ 7 นาโนเมตร ข่าวลือแนะนำว่า Nvidia จะประกาศการ์ด GeForce ใหม่ที่ Gamecom ในเดือนถัดไปของเดือนสิงหาคมเท่านั้นจากนั้นเราจะทิ้งข้อสงสัยเกี่ยวกับสิ่งที่ Turing หรือ Ampere จะเป็นถ้าพวกเขามีอยู่จริง
NVIDIA G-Sync ยุติปัญหาการซิงค์รูปภาพ
G-Sync เป็น เทคโนโลยีการปรับการซิงค์ที่เป็นกรรมสิทธิ์ซึ่งพัฒนาโดย Nvidia ซึ่งเป็นเป้าหมายหลักของการกำจัดหน้าจอที่ฉีกขาดและความต้องการทางเลือกในรูปแบบของซอฟต์แวร์เช่น Vsync G-Sync ช่วยลดการฉีกขาดของหน้าจอโดยบังคับให้ปรับให้เข้ากับกรอบของอุปกรณ์ แสดงผลกราฟิกการ์ดแทนที่จะเป็นอุปกรณ์ส่งออกที่ปรับให้เหมาะกับหน้าจอทำให้ภาพฉีกขาด หน้าจอ
เพื่อให้จอภาพเข้ากันได้กับ G-Sync นั้นจะต้องมี โมดูลฮาร์ดแวร์ที่จำหน่ายโดย Nvidia AMD (Advanced Micro Devices) เปิดตัวเทคโนโลยีที่คล้ายกันสำหรับหน้าจอที่เรียกว่า FreeSync ซึ่งมีฟังก์ชั่นเดียวกับ G-Sync แต่ไม่ต้องการฮาร์ดแวร์ใด ๆ
Nvidia สร้างฟังก์ชั่นพิเศษเพื่อหลีกเลี่ยงความเป็นไปได้ที่เฟรมใหม่จะพร้อมในขณะที่วาดภาพซ้ำบนหน้าจอสิ่งที่สามารถสร้างความล่าช้าและ / หรือการพูดติดอ่าง โมดูลคาดการณ์การอัพเดทและรอให้เฟรมถัดไปเสร็จสมบูรณ์ Pixel Overload กลายเป็นสิ่งที่ทำให้เข้าใจผิดในสถานการณ์การอัพเดทที่ไม่คงที่และโซลูชั่น คาดการณ์ว่าจะมีการอัพเดทครั้งต่อไปเมื่อใดดังนั้นจึงควรนำค่าพิกัดพิกัดเกินพิกัดมาใช้และปรับแต่งสำหรับแต่ละพาเนล เพื่อหลีกเลี่ยง ghosting
โมดูลนี้ใช้ ตระกูล FPGA ของ Altera Arria V GX ที่ มีองค์ประกอบลอจิก 156K, บล็อก DSP 396 ช่องและช่องสัญญาณ LVDS 67 ช่อง มันถูกผลิตในกระบวนการ TSMC 28LP และรวมกับชิปสามตัวสำหรับ DDR3L DRAM รวม 768 MB เพื่อให้ได้แบนด์วิดท์ที่แน่นอน FPGA ที่ใช้ยังมีอินเตอร์เฟส LVDS เพื่อควบคุมแผงมอนิเตอร์ โมดูลนี้มีวัตถุประสงค์เพื่อแทนที่นักปีนเขาทั่วไปและเพื่อให้สามารถบูรณาการได้อย่างง่ายดายโดยผู้ผลิตจอภาพซึ่งจะต้องดูแลแผงวงจรแหล่งจ่ายไฟและการเชื่อมต่ออินพุต
G-Sync ได้เผชิญกับการวิจารณ์เนื่องจากลักษณะที่เป็นกรรมสิทธิ์และความจริงที่ว่ามันยังคงได้รับการส่งเสริมเมื่อมีทางเลือกฟรีเช่น VESA Adaptive-Sync มาตรฐานซึ่งเป็นคุณสมบัติเสริมของ DisplayPort 1.2a ในขณะที่ FreeSync ของ AMD นั้นใช้ DisplayPort 1.2a แต่ G-Sync นั้นต้องการโมดูลที่ทำจาก Nvidia แทนที่จะเป็น scaler บนหน้าจอปกติสำหรับการ์ดกราฟิก Nvidia GeForce เพื่อให้ทำงานได้อย่างถูกต้องสามารถใช้งานร่วมกับ เคปเลอร์, Maxwell, Pascal และ Volta
ขั้นตอนต่อไปถ่ายโดยใช้เทคโนโลยี G-Sync HDR ซึ่งเป็นชื่อของมัน เพิ่มความสามารถของ HDR เพื่อปรับปรุงคุณภาพของภาพของจอภาพ เพื่อให้เป็นไปได้ต้องมีการก้าวกระโดดครั้งใหญ่ในฮาร์ดแวร์ G-Sync HDR รุ่นใหม่นี้ ใช้ Intel Altera Arria 10 GX 480 FPGA ซึ่งเป็นโปรเซสเซอร์ขั้นสูงและตั้งโปรแกรมได้สูงที่สามารถเข้ารหัสสำหรับแอพพลิเคชั่นที่หลากหลาย ซึ่งมาพร้อมกับหน่วยความจำ DDR4 2400MHz 3 GB ผลิตโดย Micron. ทำให้ราคาของจอภาพเหล่านี้มีราคาแพงกว่า
สิ้นสุดบทความของเราในทุกสิ่งที่คุณต้องรู้เกี่ยวกับ Nvidia จำไว้ว่าคุณสามารถแชร์บนเครือข่ายโซเชียลเพื่อให้เข้าถึงผู้ใช้มากขึ้น คุณสามารถแสดงความคิดเห็นหากคุณมีข้อเสนอแนะหรือสิ่งที่จะเพิ่ม
ประเภทของฮาร์ดไดรฟ์วันนี้ information ข้อมูลทั้งหมด】?
ในบทความนี้เราพูดถึงฮาร์ดไดรฟ์ประเภทต่าง ๆ รวมถึงคุณสมบัติที่สำคัญที่สุดอย่าพลาด
▷ Amd ryzen threadripper และ amd epyc information ข้อมูลทั้งหมด】
ทุกสิ่งที่คุณต้องรู้เกี่ยวกับ AMD Ryzen Threadripper และ AMD EPYC ✅คุณสมบัติการออกแบบหากดีกว่า Intel ประสิทธิภาพและราคา
Nvidia rtx information ข้อมูลทั้งหมด】
เรามีกราฟิกการ์ด NVIDIA RTX ใหม่อยู่กับเราแล้ว จากรุ่นเรือธง: NVIDIA RTX 2080 Ti ไปจนถึงรุ่นสำหรับนักเล่นเกมส่วนใหญ่ใน 4K: