https://www.cnblogs.com/guoyaohua/p/8600214.html总结得很好。
1、原地排序:快速排序、堆排序、插入排序、冒泡排序、希尔排序、直接选择排序
2、非原地排序:归并排序、计数排序、基数排序、桶排序
3、对有序的序列排序:冒泡、直接插入
4、对无序的序列排序:快排
5、对大数据排序:O(nlog(n))都比较好,快排、堆排、归并【归并稳定、快排和堆排不稳定】
7、常见的快速排序、归并排序、堆排序、冒泡排序等属于比较排序。
计数排序、基数排序、桶排序则属于非比较排序。
8、算法复杂度与初始状态无关的排序算法有:选择排序、堆排、归并、基数(一堆乌龟选基友)
元素总比较次数与初始状态无关的有:选择排序、基数排序。
元素总移动次数与初始状态无关的有:归并排序、基数排序。
9、稳定的排序:冒泡、插入、归并、计数、桶、基数
【稳定性:相同的数字其索引位置也有序,即且在原本的列表中 出现在 之前,在排序过的列表中 也将会是在 之前。】
不稳定的排序:选择、希尔、快排、堆排(一堆好东西需要快速 选择和share)
比较相邻的两项,交换顺序排错的项。每对列表实行一次遍历,就有一个最大项排在了正确的位置。第二次遍历开始时,最大的数据项已经归位。
1、未改进的冒泡排序:两个循环
2、改进的冒泡排序:
只要在某一次排完序之后顺序是正确的,那么就停止排序。【设置一个标记,如果顺序正确就停止遍历】
就是最普通那种思路,找到最大的往最右换,接着找到次大的再往右换。
从前往后来遍历数,新的数据和前面的已经排好的子表进行比较插入到正确的位置。
希尔排序是简单插入排序的改进,shell排序是相当于把一个数组中的所有元素分成几部分来排序;先把几个小部分的元素排序好,让元素大概有个顺序,最后再全面使用插入排序。一般最后一次排序都是和上面的插入排序一样的;
对于下标为【0】【3】【6】【9】的数据即【5】【12】【9】【7】来分割,
【5】【12】【9】【7】为一组,【16】【3】【17】为一组,【20】【8】【19】为一组。三组进分别行直接插入排序进行交换,结果为
【5】【7】【9】【12】,【3】【16】【17】,【8】【19】【20】,三组数据是在原本的位置即【5】【3】【8】【7】【16】【19】【9】【17】【20】【12】
代码:
快速排序的基本思想是,通过一轮的排序将序列分割成独立的两部分,其中一部分序列的关键字(这里主要用值来表示)均比另一部分关键字小。继续递归对长度较短的序列进行同样的分割,最后到达整体有序。在排序过程中,由于已经分开的两部分的元素不需要进行比较,故减少了比较次数,降低了排序时间。
平均时间:O(nlogn)
最好时间:O(nlogn)
最坏情况的发生是在数组有序且为完全逆序时,此时快排退化成冒泡;
解决方法:随机取主元或者取中位数,三路快排(解决大量重复数据)
三路快排优点:解决了近乎有序的数组和有大量重复数组的元素排序问题
三路快排的代码:
http://www.cnblogs.com/0zcl/p/6737944.html
先建立堆,然后排序。
满足堆的性质:子结点的键值或索引总是小于(或者大于)它的父节点。
7.1 算法描述
调整堆;
循环(条件:堆不为空){
取出堆顶元素;
将最后一个元素移动到堆顶位置;
调整使之再次成为堆;
}
例子:
给定一个列表array=[16,7,3,20,17,8],对其进行堆排序。
一、将列表中的数值构建成一个完全二叉树:
二、调整:初始化大顶堆,即将列表中的最大值放在堆顶。并且构建成堆。即父>=子。 初始化大顶堆时 是从最后一个有子节点开始往上调整最大堆。
三、交换:堆顶元素和堆尾【最后一个元素】交换,此时可以砍掉堆尾元素了,因为最大值已经排好序。而堆顶元素(最大数)与堆最后一个数交换后,需再次调整成大顶堆,此时是从上往下调整的。
四、重复步骤二、三,直到结束。即【重新调整剩余的堆并交换堆顶和堆尾的数【除了20之外的数】】。
代码
- 把长度为n的输入序列分成两个长度为n/2的子序列;
- 对这两个子序列分别采用归并排序;
- 将两个排序好的子序列合并成一个最终的排序序列。
问题描述:有 N (N>1000000)个数,求出其中的前K个最小的数(又被称作topK问题)。
这类问题似乎是备受面试官的青睐,相信面试过互联网公司的同学都会遇到这来问题。下面由浅入深,分析一下这类问题。
最基本的思路,将N个数进行完全排序,从中选出排在前K的元素即为所求。有了这个思路,我们可以选择相应的排序算法进行处理,快速排序,堆排序和归并排序都能达到O(NlogN)的时间复杂度。当然,这样的答案也是无缘offer的。
可以采用数据池的思想,选择其中前K个数作为数据池,后面的N-K个数与这K个数进行比较,若小于其中的任何一个数,则进行替换。这种思路的算法复杂度是O(N*K),当答出这种算法时,似乎离offer很近了。
有没有算法复杂度更低的方法呢?
从思路2可以想到,剩余的N-K个数与前面K个数比较的时候,是顺序比较的,算法复杂度是K。怎么在这方面做文章呢? 采用的数据结构是堆。
大根堆维护一个大小为K的数组,目前该大根堆中的元素是排名前K的数,其中根是最大的数。此后,每次从原数组中取一个元素与根进行比较,如小于根的元素,则将根元素替换并进行堆调整(下沉),即保证大根堆中的元素仍然是排名前K的数,且根元素仍然最大;否则不予处理,取下一个数组元素继续该过程。该算法的时间复杂度是O(N*logK),一般来说企业中都采用该策略处理topK问题,因为该算法不需要一次将原数组中的内容全部加载到内存中,而这正是海量数据处理必然会面临的一个关卡。如果能写出代码,offer基本搞定。
还有没有更简单的算法呢?答案是肯定的。
利用快速排序的分划函数找到分划位置K,则其前面的内容即为所求。该算法是一种非常有效的处理方式,时间复杂度是O(N)(证明可以参考算法导论书籍)。对于能一次加载到内存中的数组,该策略非常优秀。如果能完整写出代码,那么相信面试官会对你刮目相看的。
优点:
每次经过划分,如果中间值等于 K ,那么其左边的数就是 Top K 的数据;
当然,如果不等于,只要递归处理左边或者右边的数即可
该方法的时间复杂度是 O(n) ,简单分析就是第一次划分时遍历数组需要花费 n,而往后每一次都折半(当然不是准确地折半),粗略地计算就是 n + n/2 + n/4 +... < 2n,因此显然时间复杂度是 O(n)
对比第一个方法显然快了不少,随着数据量的增大,两个方法的时间差距会越来越大
缺点
虽然时间复杂度是 O(n) ,但是缺点也很明显,最主要的就是内存问题,在海量数据的情况下,我们很有可能没办法一次性将数据全部加载入内存,这个时候这个方法就无法完成使命了
还有一点就是这种思路需要我们修改输入的数组,这也是值得考虑的一点
下面,给出思路4的Python代码:
面对海量数据,我们就可以放分布式的方向去思考了
我们可以将数据分散在多台机器中,然后每台机器并行计算各自的 TopK 数据,最后汇总,再计算得到最终的 TopK 数据
这种数据分片的分布式思想在面试中非常值得一提,在实际项目中也十分常见
1.如果需要找出N个数中最大的K个不同的浮点数呢?比如,含有10个浮点数的数组(1.5,1.5,2.5,3.5,3.5,5,0,- 1.5,3.5)中最大的3个不同的浮点数是(5,3.5,2.5)。
解答:四种思路都可以。