.jpeg)
ಹ್ಯಾಂಗ್ಝೌ, ಚೀನಾ - ತಂತ್ರಜ್ಞಾನ ಉದ್ಯಮದಲ್ಲಿ ಆಘಾತಕಾರಿ ಅಲೆಗಳನ್ನು ಉಂಟುಮಾಡಿದ ಒಂದು ನಡೆಯಲ್ಲಿ, ಹೆಡ್ಜ್ ಫಂಡ್ ಹೈ-ಫ್ಲೈಯರ್ನಿಂದ ಬೆಂಬಲಿತವಾದ ಸ್ವಲ್ಪ ಪ್ರಸಿದ್ಧ AI ಸಂಸ್ಥೆಯಾದ ಡೀಪ್ಸೀಕ್, ಕೇವಲ $6 ಮಿಲಿಯನ್ ಗೆ ತರಬೇತಿ ಪಡೆದ ತನ್ನ ಪ್ರಮುಖ ಮಾದರಿಯನ್ನು ಅನಾವರಣಗೊಳಿಸಿತು - ಇದು ಪಾಶ್ಚಿಮಾತ್ಯ ಸ್ಪರ್ಧಿಗಳ $100M+ ಬಜೆಟ್ನ ಒಂದು ಭಾಗವಾಗಿದೆ. ಪ್ರಗತಿ? ವಿರಳ ಗಮನ ಕಾರ್ಯವಿಧಾನಗಳನ್ನು "ಹಂಚಿಕೊಂಡ-ಮಾರ್ಗೀಕರಿಸಿದ" ತಜ್ಞರ ಮಿಶ್ರಣ (MoE) ವಿನ್ಯಾಸದೊಂದಿಗೆ ಸಂಯೋಜಿಸುವ ಹೈಬ್ರಿಡ್ ವಾಸ್ತುಶಿಲ್ಪವು ಅದರ ತೂಕ ವರ್ಗಕ್ಕಿಂತ ಹೆಚ್ಚಿನದನ್ನು ಹೊಡೆಯಲು ಅನುವು ಮಾಡಿಕೊಡುತ್ತದೆ.
ಸ್ಪುಟ್ನಿಕ್ ಕ್ಷಣ ಕಳೆದ ಜನವರಿಯಲ್ಲಿ ಡೀಪ್ಸೀಕ್-R1 ತಾರ್ಕಿಕ ಮತ್ತು ಕೋಡಿಂಗ್ ಕಾರ್ಯಗಳಲ್ಲಿ ಬೆಂಚ್ಮಾರ್ಕ್ ಸ್ಕೋರ್ಗಳನ್ನು ಅಗ್ರಸ್ಥಾನದಲ್ಲಿದ್ದಾಗ, NVIDIA ದ ಷೇರುಗಳು ರಾತ್ರೋರಾತ್ರಿ 18% ಕುಸಿದವು, $600B ಮಾರುಕಟ್ಟೆ ಬಂಡವಾಳವನ್ನು ಅಳಿಸಿಹಾಕಿತು. ವಿಶ್ಲೇಷಕರು ಇದನ್ನು "ChatGPT ನಂತರದ ಅತ್ಯಂತ ಅಡ್ಡಿಪಡಿಸುವ AI ಈವೆಂಟ್" ಎಂದು ಕರೆದರು. ಅವರು ಅದನ್ನು ಹೇಗೆ ಮಾಡಿದರು ಹಾರ್ಡ್ವೇರ್ ಹ್ಯಾಕ್ಗಳು: 3FS (ಅಸ್ತವ್ಯಸ್ತವಾಗಿರುವ, ಅನುಕ್ರಮವಲ್ಲದ ಓದುವಿಕೆಗಳಿಗಾಗಿ ಆಪ್ಟಿಮೈಸ್ ಮಾಡಲಾದ ಫೈಲ್ ಸಿಸ್ಟಮ್) ನಂತಹ ಕಸ್ಟಮ್ ವಿತರಣಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಬಳಸಿಕೊಂಡು, US ರಫ್ತು ನಿಷೇಧದ ಸಮಯದಲ್ಲಿ ಹಳೆಯ A100 GPU ಗಳಲ್ಲಿ ತರಬೇತಿ ನೀಡಲಾಗಿದೆ.
ಅಲ್ಗಾರಿದಮಿಕ್ ಆಲ್ಕೆಮಿ: ಅವರ ಮಲ್ಟಿ-ಹೆಡ್ ಲ್ಯಾಟೆಂಟ್ ಅಟೆನ್ಶನ್ (MLA) ಕಡಿಮೆ-ಶ್ರೇಣಿಯ ಅಂದಾಜುಗಳ ಮೂಲಕ ಮೆಮೊರಿ ಬಳಕೆಯನ್ನು 40% ರಷ್ಟು ಕಡಿತಗೊಳಿಸುತ್ತದೆ ಹೈಬ್ರಿಡ್ MoE: "ಹಂಚಿಕೊಂಡ ತಜ್ಞರು" ಕೋರ್ ಲಾಜಿಕ್ ಅನ್ನು ನಿರ್ವಹಿಸುತ್ತಾರೆ ಆದರೆ "ರೂಟೆಡ್ ತಜ್ಞರು" ಸನ್ನಿವೇಶಕ್ಕೆ ಅನುಗುಣವಾಗಿ ಸಕ್ರಿಯಗೊಳಿಸುತ್ತಾರೆ - ಕಂಪ್ಯೂಟ್ ತ್ಯಾಜ್ಯವನ್ನು ಕಡಿಮೆ ಮಾಡುತ್ತಾರೆ ವಿವಾದ ಮತ್ತು ಮಹತ್ವಾಕಾಂಕ್ಷೆ ಓಪನ್ಎಐಗೆ ಹೋಲಿಸಿದರೆ CCP ನಿರ್ದೇಶನಗಳೊಂದಿಗೆ ಮಾದರಿಯ ಬಿಗಿಯಾದ ಜೋಡಣೆಯನ್ನು ವಿಮರ್ಶಕರು ಗಮನಿಸುತ್ತಾರೆ. ಆಫ್ರಿಕಾದಾದ್ಯಂತ ವಿಸ್ತರಿಸುವ ಯೋಜನೆಗಳು ಮತ್ತು 10x ಹೆಚ್ಚಿನ ಟೋಕನ್ಗಳ ಕುರಿತು ವದಂತಿಗಳಿರುವ V4 ಮಾದರಿ ತರಬೇತಿಯೊಂದಿಗೆ,
DeepSeek ನ CEO ಲಿಯಾಂಗ್ ವೆನ್ಫೆಂಗ್ ನಿಧಾನಗೊಳಿಸುತ್ತಿಲ್ಲ: "ದಕ್ಷತೆಯೇ ಹೊಸ ಪ್ರಮಾಣ." ಸಂಪೂರ್ಣ ತಾಂತ್ರಿಕ ಶ್ವೇತಪತ್ರಗಳು [deepseek.com/research](https://deepseek.com/research) ನಲ್ಲಿ ಲಭ್ಯವಿದೆ.
ಸ್ಪುಟ್ನಿಕ್ ಕ್ಷಣ ಕಳೆದ ಜನವರಿಯಲ್ಲಿ ಡೀಪ್ಸೀಕ್-R1 ತಾರ್ಕಿಕ ಮತ್ತು ಕೋಡಿಂಗ್ ಕಾರ್ಯಗಳಲ್ಲಿ ಬೆಂಚ್ಮಾರ್ಕ್ ಸ್ಕೋರ್ಗಳನ್ನು ಅಗ್ರಸ್ಥಾನದಲ್ಲಿದ್ದಾಗ, NVIDIA ದ ಷೇರುಗಳು ರಾತ್ರೋರಾತ್ರಿ 18% ಕುಸಿದವು, $600B ಮಾರುಕಟ್ಟೆ ಬಂಡವಾಳವನ್ನು ಅಳಿಸಿಹಾಕಿತು. ವಿಶ್ಲೇಷಕರು ಇದನ್ನು "ChatGPT ನಂತರದ ಅತ್ಯಂತ ಅಡ್ಡಿಪಡಿಸುವ AI ಈವೆಂಟ್" ಎಂದು ಕರೆದರು. ಅವರು ಅದನ್ನು ಹೇಗೆ ಮಾಡಿದರು ಹಾರ್ಡ್ವೇರ್ ಹ್ಯಾಕ್ಗಳು: 3FS (ಅಸ್ತವ್ಯಸ್ತವಾಗಿರುವ, ಅನುಕ್ರಮವಲ್ಲದ ಓದುವಿಕೆಗಳಿಗಾಗಿ ಆಪ್ಟಿಮೈಸ್ ಮಾಡಲಾದ ಫೈಲ್ ಸಿಸ್ಟಮ್) ನಂತಹ ಕಸ್ಟಮ್ ವಿತರಣಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಬಳಸಿಕೊಂಡು, US ರಫ್ತು ನಿಷೇಧದ ಸಮಯದಲ್ಲಿ ಹಳೆಯ A100 GPU ಗಳಲ್ಲಿ ತರಬೇತಿ ನೀಡಲಾಗಿದೆ.
ಅಲ್ಗಾರಿದಮಿಕ್ ಆಲ್ಕೆಮಿ: ಅವರ ಮಲ್ಟಿ-ಹೆಡ್ ಲ್ಯಾಟೆಂಟ್ ಅಟೆನ್ಶನ್ (MLA) ಕಡಿಮೆ-ಶ್ರೇಣಿಯ ಅಂದಾಜುಗಳ ಮೂಲಕ ಮೆಮೊರಿ ಬಳಕೆಯನ್ನು 40% ರಷ್ಟು ಕಡಿತಗೊಳಿಸುತ್ತದೆ ಹೈಬ್ರಿಡ್ MoE: "ಹಂಚಿಕೊಂಡ ತಜ್ಞರು" ಕೋರ್ ಲಾಜಿಕ್ ಅನ್ನು ನಿರ್ವಹಿಸುತ್ತಾರೆ ಆದರೆ "ರೂಟೆಡ್ ತಜ್ಞರು" ಸನ್ನಿವೇಶಕ್ಕೆ ಅನುಗುಣವಾಗಿ ಸಕ್ರಿಯಗೊಳಿಸುತ್ತಾರೆ - ಕಂಪ್ಯೂಟ್ ತ್ಯಾಜ್ಯವನ್ನು ಕಡಿಮೆ ಮಾಡುತ್ತಾರೆ ವಿವಾದ ಮತ್ತು ಮಹತ್ವಾಕಾಂಕ್ಷೆ ಓಪನ್ಎಐಗೆ ಹೋಲಿಸಿದರೆ CCP ನಿರ್ದೇಶನಗಳೊಂದಿಗೆ ಮಾದರಿಯ ಬಿಗಿಯಾದ ಜೋಡಣೆಯನ್ನು ವಿಮರ್ಶಕರು ಗಮನಿಸುತ್ತಾರೆ. ಆಫ್ರಿಕಾದಾದ್ಯಂತ ವಿಸ್ತರಿಸುವ ಯೋಜನೆಗಳು ಮತ್ತು 10x ಹೆಚ್ಚಿನ ಟೋಕನ್ಗಳ ಕುರಿತು ವದಂತಿಗಳಿರುವ V4 ಮಾದರಿ ತರಬೇತಿಯೊಂದಿಗೆ,
DeepSeek ನ CEO ಲಿಯಾಂಗ್ ವೆನ್ಫೆಂಗ್ ನಿಧಾನಗೊಳಿಸುತ್ತಿಲ್ಲ: "ದಕ್ಷತೆಯೇ ಹೊಸ ಪ್ರಮಾಣ." ಸಂಪೂರ್ಣ ತಾಂತ್ರಿಕ ಶ್ವೇತಪತ್ರಗಳು [deepseek.com/research](https://deepseek.com/research) ನಲ್ಲಿ ಲಭ್ಯವಿದೆ.