0
点赞
收藏
分享

微信扫一扫

22/03/08 计组原原补移反作用,移位运算,加减运算溢出符号扩展,乘法;CSS清除浮动;OS概念功能4特性发展分类;pytorch历史NN基本理论复习,CV历史kNN

烟中雯城 2022-03-12 阅读 33
css前端

早上

计组原

早上计组原,这个老师上课把大家都讲困了,课间休息一点儿声音的都没23333.坐第一排属实不合适了。

首先原补移反作用,补码主要是为了解决有符号数减法提出的,减法可以由加上被减数的补数进行表示,这是非常聪明的。反码是一个中间状态没啥意思,移码可以方便比较大小。

接着是移位运算,包括算数逻辑循环三种移位。这个在汇编语言里写过了也不算太难。要注意不同码移位补充的字符是不同的。

随后是加减运算的溢出问题。两个正数加一加变成负数or两个负数加一加变成正数,这两种情况都要避免。方法有一位符号位两种方法or使用mod4补码双符号位处理。

然后时符号扩展,比如说要把int转换为long,这时候对于负整数,小数要注意填补的东西不同。

最后是原码和补码的乘法,要理解运算器里面的ACC MQ Z寄存器,对于原码乘法移位相加即可;对于补码的booth算法因为要考虑进符号位,因此需要最后进行一轮加法。

第二节课去体育组报了个到从此就和体育say goodbye哩~

回到实验室写CSS的浮动清除,前两天的内容写的不是很详细也懒得改。这就是今日事今日毕的好处了。

CSS浮动清除

清除浮动是为了把浮动元素关在大盒子里,消除他对于布局的影响所引入的。用的代码是clear: both;有4种方法,第一种在孩子div层增加额外div附带标签clear类;第二种给父亲添加overflow;第三种增加after伪元素,第四种是双伪元素。这两种伪类直接复制代码然后给父标签增加类就可以了。

最后还介绍了PS切图,前端人员还是很有必要学这个的。

下午

突然发现下午有空课,那爽死了,直接操作系统选上。还是俺们和蔼可亲的李老师讲课。课上教的比较水,直接把汇编的ppt又拿出来了哈哈哈哈。自己在课上学了第一章操作系统概论。了解操作系统概念,功能目标,4大特性。

首先概念,操作系统是硬件和软件间的接口,对于我们做工程的同学来说太重要了。很多优化都要从os级考虑。

功能上,os管理系统资源,作为硬件和用户的接口,需要在纯硬件上实现扩展功能。针对这三个功能分别给出详细的子功能:处理机管理,存储器管理,文件管理,设备管理;命令接口,程序接口,GUI;虚拟机。

四个特征并发共享虚拟异步,前两个互相支撑,后两个是前两个的派生。

os的发展今天了解了手工操作阶段,批处理阶段(单道批处理和多道批处理)。

想了想算法数据结构的什么的学了软件都可以速成,但是说到底也就是软件层面的内容了。底层硬件的操作机制和组织形式在通向专家工程师的路上才是决定性的。

pytorch框架

河北工业大学的pytorch深度学习实践课程。充分说明了什么叫英雄不论出身哈哈哈哈,刘老师讲的是真的好。先讲pytorch发展以及我们为什么选择0.4,还有这种快速发展的框架可能经历的发展期高潮期冰河期最后稳定期,成为一种通用的方式。所以作为AI程序员一定要懂得看技术日志和版本介绍书。

然后复习了BP算法(这个老师讲的是真的详细)tensorflow1用的是静态计算图模型,2用的动态模型。pytorch是一贯的动态模型。Gradient Descend会陷入局部最小,但是我们发现深度神经网络中不会存在那么多局部极小点,然后别高兴的太早,取而代之的是很多鞍点导致的无法迭代问题。因此我们引入随机梯度下降。

然而随机梯度下降需要串行操作时间复杂度高,所以在DL中我们取折中降采样的方式:把几个块叫做一个batch,其实应该叫mini_batch才是一个组但是反正只有这一个batch嘛就这样叫了。

他上课好的地方在于和stanford公开课一样,也有代码解析部分让同学觉得这并不是一件难事。

Computer Vision

CV开课,老师上课比较捞(所以网课真的是yyds啊)旁边的人听的都要睡着了,边看网课边听老师讲就好的很。

Stanford Cs231n先讲计算机视觉的历史,比较著名的几个工作和人(虽然都没记住233)。他这门课主要是关注图像识别,我们这门课关注的内容还要多一些。

然后第二章就开始将图像分类算法。先讲上学期大家最爱的kNN算法,简单,不实用,但是至少让你有个概念什么是机器学习。然后这节课就over了。

pytorch2

上课回来再学一会儿。把那门课的前部分也看了一下,基本解决了以下几个问题:1、什么是人类智能 2、什么是普通算法和机器学习的区别 3、DL RL ML AI 4、rule based和classicML,RL表示学习是如何解决维度诅咒的。input采样,dimension越高对于data的要求越高。DL和RL的区别(DL通过浅层网络提取特征然后再做mapping)。5、NN的简单历史 6、计算图与BP算法 7、Linear Model,注意loss对于一个样本说叫做Loss对于整体叫Cost。8、如何调整w使loss最小的?

总结一下这种网课啊还是得非常专注,同时汲取两个方向的信息并加以处理并不是主要难点,难点在于保持很好的心态坐在第一排也不会被老师的视线干扰到的那种定力是非常要紧滴。要不然自己都怕的打字都打不利索了那可不行。

举报
0 条评论