| 字段 | 字段内容 |
|---|---|
| 001 | 01h0610286 |
| 005 | 20241125141758.0 |
| 010 | $a: 978-7-115-62368-3$d: CNY79.80 |
| 099 | $a: CAL 012023153429 |
| 100 | $a: 20231213d2023 em y0chiy50 ea |
| 101 | $a: chi |
| 102 | $a: CN$b: 110000 |
| 105 | $a: ak z 000yy |
| 106 | $a: r |
| 200 | $a: GPT图解$A: GPT tu jie$e: 大模型是怎样构建的$f: 黄佳著 |
| 210 | $a: 北京$c: 人民邮电出版社$d: 2023 |
| 215 | $a: 254页$c: 彩图$d: 24cm |
| 330 | $a: 本书主要内容包括N-Gram,词袋模型 (BoW),Word2Vec (W2V),神经概率语言模型 (NPLM),循环神经网络 (RNN),Seq2Seq (S2S),注意力机制,Transformer,从初代GPT到ChatGPT再到GPT-4等一系列突破性技术的诞生与演进。将以生动活泼的笔触,将枯燥的技术细节化作轻松幽默的故事和缤纷多彩的图画,引领读者穿梭于不同技术的时空,见证自然语言处理技术的传承、演进与蜕变。在这场不断攀登技术新峰的奇妙之旅中,读者不仅能深入理解自然语言处理技术的核心原理,还能自己动手,从零开始搭建起一个又一个语言模型。 |
| 517 | $a: 大模型是怎样构建的$A: da mo xing shi zen yang gou jian de |
| 606 | $a: 人工智能$A: ren gong zhi neng$j: 图解 |
| 690 | $a: TP18-64$v: 5 |
| 701 | $a: 黄佳$A: huang jia$4: 著 |
| 801 | $a: CN$b: 北京荣景苑图书有限公司$c: 20241105 |
| 905 | $a: SXCDS$b: 01468103-05$h: 3$d: TP18-64$e: 3$r: CNY79.80 |
| 920 | $a: 150900$z: 1 |
| 998 | $a: SXUFE |
北京创讯未来软件技术有限公司 版权所有 ALL RIGHTS RESERVED 京ICP备 09032139
欢迎第46292717位用户访问本系统