近况记录(其十五)_2023

十天的大假过得飞快

享有“北京不调休大学”美誉,当然不会调休啦,十天过去,满打满算,大概学了有四天。要么是在宿舍摆烂睡觉,要么就是出去走走,学习还得是看工作日啊,没有太紧迫的任务,摆得也心安理得。

我看看啊,我能想起来干的比较重要的事情

配置了一个比较方便的gpt_academic。用起来也比较顺手方便,至少不用总是担心自己号没了,付出的成本是从淘宝上花15r买了一个gpt的key。唯一的缺点就是,每次交互的文字达到一定的长度之后必须重置对话,没有办法和GPT进行长篇对话,或许这是使用api的弊端。

从0编写了自己第一个手写数字识别的神经网络,虽说是照着书上抄的,但是这样的高难度的编程对我而言,光是模仿就能学到很多东西了。参考是一本原载于github的书Michael Nielsen,对,这个是作者的名字。我读了很多不同类型的书,真的很多都晦涩难懂,但是这本书的真的非常适合作为深度学习的启蒙书籍,虽然依旧对高数、线代、概率论和python编程有要求,具有一定门槛。但是好歹我看懂了,额,有一些公式推导不是很懂,问了大学的老师,老师也是装死不正面回答我的问题,唉,习惯了。

但是我想抱怨的一个点,为啥作者给的代码是Python2的版本,与时俱进应该给附上python3,结果作者在github仓库也就是指了个路,告诉读者们,如果想要python3的代码,别人那个地方有。我之前对着书写完代码,各种bug,临门一脚就是跑不起来,结果是Python2和Python3的兼容性问题,真的当时快疯了。但毕竟十年前的书,作者当懒狗也能理解(滑稽)。

好消息是,我成功搞定了这个实验,现在建立的784x30x30x10神经网络训练模型,训练30个epoch之后的准确率已经能达到95.4%了,如果把后续的激活函数改进、正则化等优化方法融合进去,说不定能有更多的提升。有这样一个实验样本,真的很开心!从理论到实践的一大步飞跃!

至于出去玩之类的,本来就没有打算。额,准确地来说,是之前想要去看看国家博物馆,但是后面完全忘记了这件事情。跟徐瑾一次聊天的过程中,他推荐我去看《奥本海默》,说不会让我失望。果然,非常好的一部电影!自然科学和人文的交融,导演的风格也很适合这个类型片子,剧本编排紧凑优秀。的也非常高兴国内的影片审核没有毙掉它。因为片子是一个多月之前上映的,我去看的时候,整个场子只有五六个人,没有熊孩子,观影体验非常好!

开学前,去找以前在本部北门理发的阿姨理了一个头,准确地来说,是跑到她家里去理发了。因为她的竞争对手给她的店铺房东,每个月加了两千块的租金,她不得不搬走。相反的,阿姨在自己家里面又搞起来了,靠着十几年积累下来的口碑,学生也愿意跑到这个阿姨家里去理发,生意甚至很火爆,要预约的!我的体验是,环境虽然差了一些,但是服务和理发技术都是没的说。

至于其他的,比如说kaggle和考研,各自推进了一些,但是不多。接下来也没有长假之类的了,好好努力吧。