北京航空航天大学

  • 522

    在校生

  • 1193

    校友

  • 3869

    财富值

  • 2

    财富榜

简介:北京航空航天大学成立于1952年,是一所具有航空航天特色和工程技术优势的多科性、开放式、研究型大学,肩负着高层次人才培养和基础性、前瞻性科学研究,以及战略高技术研究的历史使命。作为新中国第一所航空航天高等学府,北航一直是国家重点建设的高校。学校现隶属于工业和信息化部,是国家“211工程”和“985工程”建设的重点高校和教育部、北京市人民政府与中国工程院共建学校。
  • 第一篇自用博客:git的操作(防忘记用的hh)封面是我最爱的歌手ikura强推她的每一首歌,简直就是行走的唱片啊有木有!

    大二快要开始前接到学校机器人队的通知,要进队干活了,进队之前要学点东西,就从最基础的git操作开始学吧。 先贴一个git的概述: Git是一个开源的分布式版本控制系统,用于敏捷高效地处理任何或小或大的项目,可以帮助你进行自动的版本管理。在多人协作的情况下,使用git就会相当的方便,能够有效地协调多位开发者对不同地方的改动。 所以当有多人协助开发的情况下,git是一个很好用的东西,可以多人有效对一个项目进行改动,想想还是比较爽的哈哈。 ...

    wyx_buaa 2021.08.15
    阅读数: 16 评论数: 1
  • 2021-06-02

    格雷码编码规律 0000 0001 0011 0010 0110 0111 0101 0100 可见由0000开始,第一位取反得0001 由0001中第一个1后一位取反得0011 由0011第一位取反得0010 由0010第一个1后一位取反得0110 发现规律????

    阅读数: 3 评论数: 0
  • 【NLP】Word2Vec模型文本分类

    自然语言处理之词向量模型聚类分析 Word Embedding 词嵌入向量(Word Embedding)是NLP里面一个重要的概念,我们可以利用Word Embedding一个单词固定长度向量的表示一种表示形式。Word Embedding矩阵给每个单词分配一个固定长度的向量表示,这个长度可以自行设定,这个长度相对于one hot模型的词典长度维数上要小很多,但是却可以表示更多的信息,因为Word Embedding向量中每个维度都有含义。 Word2Vec Word2Vec是生成Word Embedd

    AngeloG 2021.05.23
    阅读数: 113 评论数: 2
  • 【NLP】主题模型文本分类

    自然语言处理之主题模型文本分类 LDA主题模型 1.主题模型(Topic Model) 主题模型是以非监督学习的方式对文集的隐含语义结构进行聚类的统计模型。主题模型主要被用于自然语言处理中的语义分析和文本挖掘问题,例如按主题对文本进行收集、分类和降维。隐含狄利克雷分布是常见的主题模型。 2.隐含狄利克雷分布LDA(Latent Dirichlet Allocation) 1)贝叶斯模型 LDA模型基于贝叶斯模型, 2)多项式分布 多项分布,是二项分布扩展到多维的情况。 多项分布是指单次试验中的随机变量的取

    AngeloG 2021.05.23
    阅读数: 272 评论数: 0
  • 【数据结构】3.图、最小生成树

    一、图的基本概念 1.什么是图 图表示一种多对多的关系。图包括: 1)一组顶点:通常用 V (Vertex) 表示顶点集合 2)一组边:通常用 E (Edge) 表示边的集合 3)边是顶点对:(v, w) ∈\in∈ E ,其中 v, w ∈\in∈ V ;有向边 < v, w> 表示从v指向w的边(单行线);不考虑重边和自回路。 2.数据类型描述 数据对象集:G(V,E)由一个非空的有限顶点集合V和一个有限边集合E组成。 3.图的表示 1)邻接矩阵 2)邻接表 邻接表:G[N]为指针数组,对

    AngeloG 2021.05.21
    阅读数: 19 评论数: 0
  • 【统计学习】混合高斯模型EM估计算法实现

    自然语言处理之混合高斯模型EM估计 公式推导 模型理解 1、仍然是一个概率模型,高斯混合模型是对高斯模型进行简单的扩展,GMM使用多个高斯分布的组合来刻画数据分布,每个高斯分模型就代表了一个类(一个Cluster),对样本中的数据分别在几个高斯模型上投影,就会分别得到在各个类上的概率; 2、所有高斯分量的权重系数大于零,且和为1; 3、混合高斯模型中待求的参数θ包括每个分量的高斯分布均值和方差,各个分量权重; 4、初始化GMM时,一般传入“混合高斯分布分量数”、“约定协方差矩阵属性(高斯分布的形状)”

    AngeloG 2021.05.21
    阅读数: 23 评论数: 0
  • 【NLP】中文平均信息熵

    自然语言处理之中文平均信息熵 课程大作业 欢迎讨论 信息熵 1.信息熵定义 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mpqE0SXy-1621346255418)(自然语言处理之中文平均信息熵.assets/shannon.png)] 1948年,香农提出了信息熵的概念,解决了对信息的量化度量问题。如今熵 (Entropy),信息熵,已经是机器学习中绕不开的一个概念。信息熵常被用来作为一个系统的信息含量的量化指标,从而可以进一步用来作为系统方程优化的目标或者参数选择的判

    AngeloG 2021.05.20
    阅读数: 76 评论数: 1
  • 【数据结构】2.树:堆、哈夫曼树、集合

    # 一、堆 ## 1.基本概念 优先队列(Priority Queue):特殊的“队列”,取出元素的顺序是依照元素的优先权(关键字)大小,而不是元素进入队列的先后顺序。 堆是优先队列的完全二叉树组织形式。 堆的两个特性: **结构性:用数组表示的完全二叉树; 有序性:任一结点的关键字是其子树所有结点的最大值(或最小值)。**

    AngeloG 2021.05.20
    阅读数: 14 评论数: 0
  • 【数据结构】2.树:二叉树、二叉搜索树及其基本实现

    一、树概述 1.树定义 树是个结点构成的有限集合。 1)当n=0时,称为空树; 2) 对于任一棵非空树都有一个称为“根(Root)”的结点;其余结点可分为m(m>0)个互不相交的有限集,其中每个集合是原来树的子树。 子树是不相交的;除了根结点外,每个结点有且仅有一个父结点; 一棵N个结点的树有N-1条边。 2.树的一些基本概念 结点的度:结点的子树个数 树的度:树的所有结点中最大的度数 叶结点:度为0的结点 父结点:有子树的结点是其子树的根结点的父结点 子结点:若A结点是B结点的父结点,则称B结点是A

    AngeloG 2021.05.20
    阅读数: 21 评论数: 0
  • 【C++ STL】5.set/map

    STL中提供的关联式容器,set和map(multiset和multimap),包括在C++ 11中新增的无序关联容器unordered_map、unordered_multimap、unordered_set 以及 unordered_multiset。 一、关联式容器 1.关联式容器在存储元素值的同时,还会为各元素额外再配备一个值(又称为“键”,其本质也是一个 C++ 基础数据类型或自定义类型的元素),它的功能是在使用关联式容器的过程中,如果已知目标元素的键的值,则直接通过该键就可以找到目标元素,而无需

    AngeloG 2021.04.28
    阅读数: 15 评论数: 0
每页显示 共835条数据 < 1... 5 6 7 8 9 ...84 >      到第 GO

该校没有任何博文,快去发表

Top_arrow