Neural Networks and Learning Machines

Neural Networks and Learning Machines pdf epub mobi txt 电子书 下载 2026

出版者:Pearson
作者:Simon O. Haykin
出品人:
页数:936
译者:
出版时间:2008-11-28
价格:USD 252.40
装帧:Hardcover
isbn号码:9780131471399
丛书系列:
图书标签:
  • 神经网络
  • 机器学习
  • MachineLearning
  • 人工智能
  • NeuralNetworks
  • 计算机
  • AI
  • 计算机科学
  • Neural Networks
  • Machine Learning
  • Deep Learning
  • Artificial Intelligence
  • Algorithms
  • Mathematics
  • Computer Science
  • Pattern Recognition
  • Operations Research
  • Engines
想要找书就要到 小美书屋
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

具体描述

For graduate-level neural network courses offered in the departments of Computer Engineering, Electrical Engineering, and Computer Science. Renowned for its thoroughness and readability, this well-organized and completely up-to-date text remains the most comprehensive treatment of neural networks from an engineering perspective. Refocused, revised and renamed to reflect the duality of neural networks and learning machines, this edition recognizes that the subject matter is richer when these topics are studied together. Ideas drawn from neural networks and machine learning are hybridized to perform improved learning tasks beyond the capability of either independently.

《计算的艺术:从逻辑门到通用智能的进化》 本书将带领读者踏上一场穿越计算领域,从最基础的逻辑门构建单位,直至探索通用人工智能(AGI)宏伟目标的史诗级旅程。我们不会涉及神经网络或机器学习的具体模型,而是将焦点置于计算本身的概念演进,以及如何通过组合、抽象和组织基本元素,逐步构建出越来越复杂、越来越强大的计算能力。 第一部分:数字世界的基石——逻辑与电路 我们将从最微小的构建单元——逻辑门开始。了解“与”、“或”、“非”等基本逻辑操作如何通过电子元件实现,并进一步学习如何将这些门组合成更复杂的电路,例如加法器、触发器,乃至能够存储信息的寄存器。我们将探讨二进制数系的优雅之处,以及它如何成为所有数字计算的通用语言。通过分析这些基础电路的工作原理,读者将深刻理解现代计算机的底层运作机制,认识到一切复杂的计算能力都源于这些简单的逻辑组合。我们会深入探讨布尔代数,理解其形式化表达能力如何精确描述和优化数字电路的设计。 第二部分:抽象的阶梯——指令集与架构 在掌握了基本的硬件构建块后,我们将开始攀登抽象的阶梯。本书将详细阐述指令集架构(ISA)的概念。ISA就像是计算机的“语言”,定义了中央处理器(CPU)能够理解和执行的指令集合。我们将探讨不同类型的指令,如数据传输、算术运算、逻辑运算、分支控制等,并理解它们如何被编码成机器语言。在此基础上,我们将介绍CPU的基本结构,包括寄存器、算术逻辑单元(ALU)、控制单元等,以及它们如何协同工作以执行程序。我们会分析冯·诺依曼体系结构等经典计算模型,理解存储程序概念的革命性意义,以及其对现代计算机设计的深远影响。此外,还将探讨RISC与CISC指令集设计的哲学差异,并分析它们各自的优缺点。 第三部分:软件的诞生——编程语言与操作系统 一旦我们有了理解机器指令的能力,我们就可以开始构建软件。本书将介绍不同层级的编程语言,从低级汇编语言(直接对应机器指令)到高级编程语言,如Python、Java等。我们将探讨编译器和解释器的作用,它们如何将人类可读的代码转化为机器可执行的指令。更重要的是,我们将深入研究操作系统的核心概念。操作系统是连接硬件和应用程序的桥梁,它负责管理计算机的资源,包括CPU时间、内存、存储设备以及输入输出设备。我们将分析进程管理、内存管理、文件系统以及并发控制等关键技术,理解它们如何使得多任务、多用户以及高效的资源利用成为可能。我们将讨论操作系统的发展历史,从简单的单用户系统到复杂的分布式操作系统,并分析不同设计哲学下的权衡。 第四部分:组织与互联——数据结构、算法与网络 计算的威力不仅在于执行指令,更在于如何有效地组织和处理数据。本书将深入探讨经典的数据结构,如数组、链表、栈、队列、树和图。我们将分析各种数据结构的特性,以及它们在不同场景下的适用性。在此基础上,我们将引入算法的概念,学习如何设计和分析算法的效率(时间复杂度和空间复杂度)。我们将探讨排序、搜索、图遍历等基本算法,理解算法优化在提升程序性能中的关键作用。此外,我们将拓展视野至计算机网络。理解网络协议栈(如TCP/IP)的工作原理,以及数据如何在网络中传输。我们将探讨局域网(LAN)、广域网(WAN)以及互联网的构成,并理解分布式计算的可能性,以及如何通过网络连接大量的计算资源来解决更为复杂的问题。 第五部分:模拟与推理——形式化方法与符号计算 在追求更高级的智能时,我们必须考虑如何让计算机“思考”。本书将介绍形式化方法,即使用数学和逻辑工具来描述和验证系统的行为。我们将探讨状态机、有限自动机等模型,以及它们在模型检查等领域的应用。我们将深入研究符号计算的领域,理解计算机如何处理和操纵符号表达式,而不是仅仅处理数值。我们将探讨逻辑推理系统,以及如何利用逻辑规则进行问题求解和知识表示。虽然不涉及神经网络,但我们将讨论基于规则的专家系统、搜索算法(如A搜索)在解决复杂问题中的潜力,以及这些方法在早期人工智能探索中的贡献。我们将审视这些方法在形式化验证、定理证明以及一些早期AI系统中的应用。 第六部分:走向通用——计算的边界与未来展望 在旅程的最后,我们将回顾计算能力的发展轨迹,并对通用人工智能(AGI)的可能性进行探讨。我们将讨论图灵完备性的概念,理解理论上任何可计算的问题都能被解决的普遍性。我们将反思不同计算模型(如Lambda演算、图灵机)之间的等价性,以及它们如何揭示计算的本质。我们将讨论“智能”在计算语境下的含义,以及如何通过组合和泛化现有的计算范式,逐步逼近更具通用性的智能系统。本书将重点讨论信息论、控制论等学科与计算的交叉,探讨如何构建能够适应新环境、进行泛化学习的计算框架。我们将分析计算能力的指数级增长规律,以及它对人类社会可能产生的颠覆性影响。我们将聚焦于如何设计能够自主学习、规划和解决开放式问题的计算系统,尽管不涉及具体的神经网络实现,但会讨论理解世界、构建模型以及进行决策所需要的计算基础。 《计算的艺术》旨在为读者提供一个坚实的、不受具体技术潮流限制的计算理论基础。通过理解计算的底层逻辑、抽象层级以及组织方式,读者将能够更深刻地理解现代科技的基石,并对未来计算发展的可能性产生更清晰的认识。这是一部关于思想、逻辑和构建的著作,而非关于特定工具的书籍。

作者简介

Simon Haykin,于1953年获得英国伯明翰大学博士学位,目前为加拿大McMaster大学电子与计算机工程系教授、通信研究实验室主任。他是国际电子电气工程界的*名学者,曾获得IEEE McNaughton金奖。他是加拿大皇家学会院士、IEEE会士,在神经网络、通信、自适应滤波器等领域成果颇丰,*有多部标准教材。

目录信息

Preface .
Acknowledgements
Abbreviations and Symbols
GLOSSARY
Introduction
1. What is a Neural Network?
2. The Human Brain
3. Models of a Neuron
4. Neural Networks Viewed As Directed Graphs
5. Feedback
6. Network Architectures
7. Knowledge Representation
8. Learning Processes
9. Learning Tasks
10. Concluding Remarks
Notes and References
Chapter 1 Rosenblatt's Pereeptron
1.1 Introduction
1.2. Perceptron
1.3. The Perceptron Convergence Theorem
1.4. Relation Between the Perceptron and Bayes Classifier for a Gaussian Environment
1.5. Computer Experiment: Pattern Classification
1.6. The Batch Perceptron Algorithm
1.7. Summary and Discussion
Notes and References
Problems
Chapter 2 Model Building through Regression
2.1 Introduction
2.2 Linear Regression Model: Preliminary Considerations
2.3 Maximum a Posteriori Estimation of the Parameter Vector
2.4 Relationship .Between Regularized Least-Squares Estimation and MAP Estimation
2.5 Computer Experiment: Pattern Classification
2.6 The Minimum-Description-Length Principle
2.7 Finite Sample-Size Considerations
2.8 The Instrumental-Variables Method
2.9 Summary and Discussion
Notes and References
Problems
Chapter 3 The Least-Mean-Square Algorithm
3.1 Introduction
3.2 Filtering Structure of the LMS Algorithm
3.3 Unconstrained Optimization: a Review
3.4 The Wiener Filter
3.5 The Least-Mean-Square Algorithm
3.6 Markov Model Portraying the Deviation of the LMS Algorithm from the Wiener Filter
3.7 The Langevin Equation: Characterization of Brownian Motion
3.8 Kushner's Direct-Averaging Method
3.9 Statistical LMS Learning Theory for Small Learning-Rate Parameter
3.10 Computer Experiment I:Linear Prediction
3.11 Computer Experiment II: Pattern Classification
3.12 Virtues and Limitations of the LMS Algorithm
3.13 Learning-Rate Annealing Schedules
3.14 Summary and Discussion
Notes and References
Problems
Chapter 4 Multilayer Pereeptrons
4.1 Introduction
4.2 Some Preliminaries
4.3 Batch Learning and On-Line Learning
4.4 The Back-Propagation Algorithm
4.5 XOR Problem
4.6 Heuristics for Making the Back-Propagation Algorithm Perform Better
4.7 Computer Experiment: Pattern Classification
4.8 Back Propagation and Differentiation
4.9 The Hessian and Its Role in On-Line Learning
4.10 Optimal Annealing and Adaptive Control of the Learning Rate
4.11 Generalization
4.12 Approximations of Functions
4.13 Cross-Validation
4.14 Complexity Regularization and Network Pruning
4.15 Virtues and Limitations of Back-Propagation Learning
4.16 Supervised Learning Viewed as an Optimization Problem
4.17 Convolutional Networks
4.18 Nonlinear Filtering
4.19 Small-Scale Versus Large-Scale Learning Problems
4.20 Summary and Discussion
Notes and References
Problems
Chapter 5 Kernel Methods and Radial-Basis Function Networks
5.1 Introduction
5.2 Cover's Theorem on the Separability of Patterns
5.3 The Interpolation Problem
5.4 Radial-Basis-Function Networks
5.5 K-Means Clustering
5.6 Recursive Least-Squares Estimation of the Weight Vector
5.7 Hybrid Learning Procedure for RBF Networks
5.8 Computer Experiment: Pattern Classification
5.9 Interpretations of the Gaussian Hidden Units
5.10 Kernel Regression and Its Relation to RBF Networks
5.11 Summary and Discussion
Notes and References
Problems
Chapter 6 Support Vector Machines
6.1 Introduction 268
6.2 Optimal Hyperplane for Linearly Separable Patterns
6.3 Optimal Hyperplane for Nonseparable Patterns
6.4 The Support Vector Machine Viewed as a Kernel Machine
6.5 Design of Support Vector Machines
6.6 XOR Problem
6.7 Computer Experiment: Pattern Classification
6.8 Regression: Robustness Considerations
6.9 Optimal Solution of the Linear Regression Problem
6.10 The Representer Theorem and Related Issues
6.11 Summary and Discussion
Notes and References
Problems
Chapter 7 RegularizationTheory
7.1 Introduction
7.2 Hadamard's Conditions for Well-Posedness
7.3 Tikhonov's Regularization Theory
7.4 Regularization Networks
7.5 Generalized Radial-Basis-Function Networks
7.6 The Regularized Least-Squares Estimator: Revisited
7.7 Additional Notes of Interest on Regularization
7.8 Estimation of the Regularization Parameter
7.9 Semisupervised Learning
7.10 Manifold Regularization: Preliminary Considerations
7.11 Differentiable Manifolds
7.12 Generalized Regularization Theory ..
7.13 Spectral Graph Theory
7.14 Generalized Representer Theorem
7.15 Laplacian Regularized Least-Squares Algorithm
7.16 Experiments on Pattern Classification Using Semisupervised Learning
7.17 Summary and Discussion
Notes and References
Problems
Chapter 8 Principal-Components Analysis
8.1 Introduction
8.2 Principles of Self-Organization
8.3 Self-Organized Feature Analysis
8.4 Principal-Components Analysis: Perturbation Theory
8.5 Hebbian-Based Maximum Eigenfilter
8.6 Hebbian-Based Principal-Components Analysis
8.7 Case Study: Image Coding
8.8 Kernel Principal-Components Analysis
8.9 Basic Issues Involved in the Coding of Natural Images
8.10 Kernel Hebbian Algorithm
8.11 Summary and Discussion
Notes and References
Problems
Chapter 9 Self-Organizing Maps
9.1 Introduction
9.2 Two Basic Feature-Mapping Models
9.3 Self-Organizing Map
9.4 Properties of the Feature Map
9.5 Computer Experiments I: Disentangling Lattice Dynamics Using SOM
9.6 Contextual Maps
9.7 Hierarchical Vector Quantization
9.8 Kernel Self-Organizing Map
9.9 Computer Experiment II: Disentangling Lattice Dynamics Using Kernel SOM
9.10 Relationship Between Kernel SOM and Kullback-Leibler Divergence
9.11 Summary and Discussion
Notes and References
Problems
Chapter 10 Information-Theoretic Learning Models
10.1 Introduction
10.2 Entropy
10.3 Maximum-Entropy Principle
10.4 Mutual Information
10.5 Kullback-Leibler Divergence
10.6 Copulas
10.7 Mutual Information as an Objective Function to be Optimized
10.8 Maximum Mutual Information Principle
10.9 Infomax and Redundancy Reduction
10.10 Spatially Coherent Features
10.11 Spatially Incoherent Features
10.12 Independent-Components Analysis
10.13 Sparse Coding of Natural Images and Comparison with ICA Coding
10.14 Natural-Gradient Learning for Independent -Components Analysis
10.15 Maximum-Likelihood Estimation for Independent-Components Analysis
10.16 Maximum-Entropy Learning for Blind Source Separation
10.17 Maximization of Negentropy for Independent-Components Analysis
10.18 Coherent Independent-Components Analysis
10.19 Rate Distortion Theory and Information Bottleneck
10.20 Optimal Manifold Representation of Data
10.21 Computer Experiment: Pattern Classifcation
10.22 Summary and Discussion
Notes and References
Problems
Chapter 11 Stochastic Methods Rooted in Statistical Mechanics
11.1 Introduction
11.2 Statistical Mechanics
11.3 Markov Chains
11.4 Metropolis Algorithm
11.5 Simulated Annealing
11.6 Gibbs Sampling
11.7 Boltzmann Machine
11.8 Logistic Belief Nets
11.9 Deep Belief Nets
11.10 Deterministic Annealing
11.11 Analogy of Deterministic Annealing with Expectation-Maximization Algorithm
11.12 Summary and Discussion
Notes and References
Problems
Chapter 12 Dynamic Programming
12.1 Introduction
12.2 Markov Decision Process
12.3 Bellman's Optimality Criterion
12.4 Policy Iteration
12.5 Value Iteration
12.6 Approximate Dynamic Programming: Direct Methods
12.7 Temporal-Difference Learning
12.8 Q-Learning
12.9 Approximate Dynamic Programming: Indirect Methods
12.10 Least-Squares Policy Evaluation
12.11 Approximate Policy Iteration
12.12 Summary and Discussion
Notes and References
Problems
Chapter 13 Neurodynamics
13.1 Introduction
13.2 Dynamic Systems
13.3 Stability of Equilibrium States
13.4 Attractors
13.5 Neurodynamic Models
13.6 Manipulation of Attractors as a Recurrent Network Paradigm
13.7 Hopfield Model
13.8 The Cohen-GrossbergTheorem
13.9 Brain-State-In-A-Box Model
13.10 Strange Attractors and Chaos
13.11 Dynamic Reconstruction of a Chaotic Process
13.12 Summary and Discussion
Notes and References
Problems
Chapter 14 Bayseian Filtering for State Estimation of Dynamic Systems
14.1 Introduction
14.2 State-Space Models
14.3 Kalman Filters
14.4 The Divergence-Phenomenon and Square-Root Filtering
14.5 The Extended Kalman Filter
14.6 The Bayesian Filter
14.7 Cubature Kalman Filter: Building on the Kalman Filter
14.8 Particle Filters
14.9 Computer Experiment: Comparative Evaluation of Extended Kalman and Particle Filters
14.10 Kalman Filtering in Modeling of Brain Functions
14.11 Summary and Discussion
Notes and References
Problems
Chapter 15 Dynamically Driven Recurrent Networks
15.1 Introduction
15.2 Recurrent Network Architectures
15.3 Universal Approximation Theorem
15.4 Controllability and Observability
15.5 Computational Power of Recurrent Networks
15.6 Learning Algorithms
15.7 Back Propagation Through Time
15.8 Real-Tune Recurrent Learning
15.9 Vanishing Gradients in Recurrent Networks
15.10 Supervised Training Framework for Recurrent Networks Using Nonlinear Sequential State Estimators
15.11 Computer Experiment: Dynamic Reconstruction of Mackay-Glass Attractor
15.12 Adaptivity Considerations
15.13 Case Study: Model Reference Applied to Neurocontrol
15.14 Summary and Discussion
Notes and References
Problems
Bibliography
Index
· · · · · · (收起)

读后感

评分

这本书还算有点名气,有不少的AI书籍的参考文献都提及了它。书名虽然是foundation,但却是偏重于数学的。对于ANN的几乎所有原理都没有给出可以在直觉上理解的原因,比如,为什么对于w的初始化要随机且尽可能小;冲向量的直观解释是什么;对于分布不均匀的结果类别应该如何对w正...  

评分

这本书还算有点名气,有不少的AI书籍的参考文献都提及了它。书名虽然是foundation,但却是偏重于数学的。对于ANN的几乎所有原理都没有给出可以在直觉上理解的原因,比如,为什么对于w的初始化要随机且尽可能小;冲向量的直观解释是什么;对于分布不均匀的结果类别应该如何对w正...  

评分

神经网络不仅是现在的思维模式,计算机的将来计算模式,还是简单的细胞的运算模式。他们没有真正的思考,而是计算。计算是机器也能够做到的,因此不管人是否理解或者机器是否知道,都可以从容应对。而不知道的事物如此之多,因此不必担心他们会自动的进入圈套。他们不仅是可以...  

评分

原书:Neural Networks and Learning Machines 土豪,注意,这是 Learning Machines, 而不是 Machine Learning 神经网络与学习机会更好。  

评分

模仿生物的神经系统,人类开始设计制造人工神经网络。人工神经网络具有很多类似人脑的功能,其中就包括学习功能,也就是机器学习。 小脑在运动的控制和协调中起到了非常重要的作用,通常进行得非常平稳并且几乎毫不费力。在文献中,已经提到小脑扮演着动态估计的控制者或者神经...

用户评价

评分

当我看到《Neural Networks and Learning Machines》这本书的书名时,我脑海中立刻浮现出无数关于人工智能和机器学习的画面。我对神经网络的迷人之处在于它们模仿生物大脑的结构,能够从海量数据中学习复杂的模式,并最终做出预测或决策。而“Learning Machines”则进一步强调了这种能力,意味着这些机器并非简单的程序,而是能够通过经验不断进步。我非常期待在这本书中能够深入了解神经网络的各种架构,从基础的感知器到更复杂的深度学习模型,比如卷积神经网络(CNNs)和循环神经网络(RNNs),以及它们在不同领域的应用。此外,我也希望能够理解各种机器学习算法的原理,例如如何进行模型训练、参数优化以及性能评估。书中如果能包含一些算法的数学推导和代码实现示例,那将极大地帮助我理解这些抽象的概念,并为我日后的实践打下基础。我希望读完这本书,我能够对神经网络和机器学习有更深刻的理解,并能够开始思考如何利用这些技术解决实际问题。

评分

作为一名对计算机科学领域充满好奇的学习者,我常常被那些能够赋予机器“智能”的技术所吸引。这本书的名字,《Neural Networks and Learning Machines》,准确地触及了我最感兴趣的几个方面。神经网络,这个模仿人脑神经元连接方式的模型,其强大的模式识别和抽象能力,一直让我着迷。而“Learning Machines”则进一步强调了机器通过数据自主进化的过程,这其中的奥秘,是我急切想要探寻的。我期望这本书能够带领我走进神经网络的世界,从最基本的感知器原理开始,一步步理解不同网络结构的演变,比如卷积网络在图像处理上的优势,循环网络在序列数据上的应用。同时,我也希望能够了解各种学习算法的精髓,包括如何有效地训练模型,如何避免过拟合,以及如何评估模型的性能。如果书中能够提供一些历史背景和发展脉络,让我明白这些技术是如何一步步走到今天的,那将是锦上添花。我希望这本书能够成为我理解和应用神经网络的起点,让我能够更好地理解那些正在重塑世界的智能技术。

评分

我一直对那些能够让机器“思考”和“学习”的技术抱有极大的热情,而《Neural Networks and Learning Machines》这个书名,无疑精准地击中了我的兴趣点。神经网络,作为模拟人脑神经元连接的计算模型,其在模式识别、特征提取等方面的强大能力,让我深感震撼。而“Learning Machines”则更进一步,它暗示着机器并非被动地执行指令,而是能够通过与环境的互动来不断优化自身。我非常期待在这本书中能够看到关于不同类型神经网络的详细介绍,例如全连接网络、卷积神经网络、循环神经网络等,以及它们各自的适用场景和工作原理。同时,我希望作者能够深入讲解机器学习的核心概念,包括监督学习、无监督学习、强化学习等,以及各种优化算法的原理和应用。如果书中能够提供一些实际的案例分析,展示神经网络如何在现实世界中解决问题,例如图像识别、自然语言处理、推荐系统等,那就更具启发性了。我希望这本书能为我构建起一个坚实的理论基础,让我能够更好地理解和应用这些强大的技术。

评分

这本书的名字听起来就充满了挑战性,"Neural Networks and Learning Machines",光是这两个词就能让人联想到深邃的算法、复杂的模型以及对人工智能未来无限的畅想。我一直对机器学习和深度学习领域抱有浓厚的兴趣,特别是神经网络,它们就像是模仿人脑的奇妙结构,通过学习数据来解决各种问题。这本书的封面设计也相当吸引人,简洁而富有科技感,仿佛预示着里面蕴含着能够解锁智能奥秘的钥匙。我迫不及待地想翻开它,去探索那些支撑起我们今天所见人工智能奇迹的基石。我期待能够看到关于感知器、多层感知器、反向传播算法等经典概念的深入讲解,也希望能有关于卷积神经网络、循环神经网络这些现代深度学习架构的介绍。更重要的是,我希望作者能够以一种清晰易懂的方式,将这些复杂的数学原理和工程实践娓娓道来,让像我这样的初学者也能逐步领略其中的魅力。我心中的理想状态是,读完这本书,我不仅能理解神经网络的工作原理,还能对如何构建、训练和评估模型有初步的认识,甚至能够尝试自己动手实现一些简单的神经网络应用。这不仅仅是一本书,更像是一次通往人工智能世界的探索之旅。

评分

我一直觉得,机器学习和人工智能不仅仅是学术上的研究,更多的是一种能够深刻改变我们生活方式的驱动力。从智能助手到自动驾驶,再到个性化推荐,神经网络无疑是这一切的核心。这本书的书名,《Neural Networks and Learning Machines》,就直接点出了这个核心技术。我尤其关注的是“Learning Machines”这个部分,它意味着机器不仅仅是按照预设的指令运行,而是能够通过经验进行自我提升。这其中涉及到的学习理论、优化算法、数据预处理等细节,都是我渴望深入了解的。我希望这本书能够涵盖从基础的统计学习理论到更高级的深度学习模型,并能用生动的例子来解释这些抽象的概念。例如,如何让机器识别图像中的猫狗,或者理解人类的语言,这些都是非常直观的应用。如果书中能够提供一些伪代码或者实际的编程思路,那就更好了,这样我就可以结合理论进行实践。我希望这本书能够为我打开一扇门,让我看到机器学习背后更广阔的天地,并为我日后的深入学习和研究打下坚实的基础。它不仅仅是知识的传授,更是对未来的一种展望。

评分

还是看原版好一点

评分

神经网络的经典教材!

评分

Haykin's great book for ML, including various classic ML algorithms, but quite out-dated.

评分

还是看原版好一点

评分

一部大作,里面涉及大量数学原理,需要一定的数学功底才能全部看懂。

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2026 book.quotespace.org All Rights Reserved. 小美书屋 版权所有