myAI


python黑马Python教程《流畅的Python》

  1. ​ 数据类型与对应操作
  2. 判断循环
  3. 函数
  4. 面向对象
  5. 文件操作
  6. Debug

数学:人工智能必备数学基础全套课程网易可汗学院统计学公开课

  1. 高数:探究能解决什么问题;矩阵各维度所代表的意义
  2. 线代;高维数据相乘运算;
  3. 概率论:数据预处理、建模、模型参数初始化及归一化
    1. 均值、方差
    2. 比如为什么树模型一般不需要进行数据归一化?
    3. 而逻辑回归、神经网络、PCA中就必须进行数据归一化?

数据分析【莫烦】Numpy&Pandas

  1. 爬虫
  2. Numpy、Pandas和Matplotlib(会查会用即可)先去官网上查有没有对应的内置方法

多反思总结


机器学习吴恩达机器学习菜菜的sklearn

西瓜书最全西瓜书-周志华《机器学习》笔记 - 知乎 (zhihu.com)

  1. 白盒算法?
  • 数据清洗过程与特征工程是怎么做的?为什么会最终选用这些方法?
  • 文本数据集常用的处理方法有哪些?适用的场景的是什么?
  • imgimgimg

深度学习

黑盒算法,不具可解释性

一定要将逻辑回归彻彻底底学明白

CNNRNN入门?

神经网络:浙大研究生课程 吴恩达深度学习推导神经网络的原理

白板推导系列


项目推荐

Bert文本分类

实体识别

对话机器人


conda

conda activate D:\anaconda

不要再python输入中使用pip install

使用一些IDE的时候,我这里是pycharm

删除文件时会出现选项 “Safe delete ( with usage search)”,

字面意思是使用搜索安全删除. 是否选中结果分别为:

没有选中状态,直接删除.

选中状态,删除前IDE会搜寻项目中是否有使用到这个文件的其它文件,

如果有相关文件会提醒有几处被使用,并且列出以下三个按钮:

  (1) Delete Anyway 确认删除

  (2) View usages 查看哪里被使用

  (3) Cancel  取消删除

 Safe delete 选中后默认选中"Search in comments and string" 搜索评论和字符串

————————————————
版权声明:本文为CSDN博主「drlstack」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/drlstack/article/details/104584156

cuda是否需要?

(1条消息) CUDA安装及环境配置——最新详细版_cuda环境配置_abbrave的博客-CSDN博客

在anaconda里下载cuda还是在官网单独安装?

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html –trusted-host=pypi.python.org –trusted-host=pypi.org –trusted-host=files.pythonhosted.org

conda info –envs

conda create -n pytorch

conda activate d2l

conda config –show envs_dirs


轻量化超分辨率 -lhe

srcnn 重建效果设计LR双线性插值

f srcn放大在卷积之后,卷积对象低分辨率,转置卷积,()特征图尺寸计算量,

vdsr 20层 感知大

rcan 通道注意力机制:聚焦通道权重。。附加运算量

cbam 区域注意力

esrganrrdb基础块都残差结构;破坏并行性,改动重建密集连接块

以上超分

模型压缩()蒸馏剪枝量化,

繁琐,反复微调

轻量化结构设计()通道压缩 通道分割 卷积分解 重参数

​ 1通道数大,降后特征处理,什么是1*1卷积和扩张,什么是3 3.而且都能放大;;;分类的模型中很多多余。对重建不好

​ 3卷积分解。3个张量的卷积核。。计算量3c3c特征图通道数,在边缘常见,时间差不多效果下降但是计算量少。

​ 2通道切分。通道混洗信息交互,

​ 信息蒸馏,主流{

IMDN AIM2019

LR

CONV-3

4*IMDB()逐步蒸馏重要的进入。

concat

cca layer

conv-1

()切分占用时间

AIM2022

RFDB代替IMDB卷积层conv-3+RFDB(CONV-3和relu喂残差、跳跃连接)代替切分-

2022ESR

计算量下降,但密集块推理延迟,

模型可能差,但训练有效,先做二倍超分 strided,pooling

22亚ESR

基础块(ERB(重参数,合成3c3卷积)+HFAB)

内存有限:通道分离19+20

求速度:直通型减少跳跃,22年冠亚

效果赛道,transform 自注意力机制,

​ LN更大的学习率还平滑(原本最多使用)

​ 简化的GELR,关键处使用轻量化机制。

速度和算量的轻量

了解重参数,直通型, 22的relu带来的非线性效果?

分类分割方面的论文而不是轻量化。。。超分。

训练用GPU 推理不必

GLU 在nn.module..在forward

基于GPU以上

那边缘设备呢?

网络模型中:跳跃放大,注意力,少!

wx:aiwalker

基于重参数(其中有边缘提取算子,提升线条感,原本训练久运算大。 sobel-Dy and laplacian。。只有结构相同才能成块

从头到尾的跳跃连接能不学习原图

PRELU是什么推理过程

999:

两部分 traning+inference

注意 块:repblock:and 拟残差信息?

小点:边缘设备对卷积比较好(所以有侧边的1*1conv代替3c3)输出了九张特征图,设计卷积核。

边缘设备以上

轻量化视频超分:

VSR套用SR主流

PROPAGATION移动窗口(一次n帧,增强当前)(局部)(计算量)(不对齐的会破坏←光流 可变形卷积。难,不对齐了)、递归(抽取历史信息,传递到每个下一帧)(整个视频的信息传递)(不要求对齐)双向递归神经网络 *4/4是什么??前一阵的超分结果。输入有三(历史,上一针,上增强,自己,下一帧)(什么是hidden stateflow?如何实际网络去有效提取隐私信息?设计网络将隐状态融入重建过程)

ALIGNMENT

AGGREGATION

放大 pisshafer??

仿transformer的模块 22的NAFNet

999重参数模块,去更复杂,更大参数量,

多看设计,要求容纳力,

量化:浮点数量化到int8 可以模型加速。

tenserrt 推理加速库的应用


损失函数

常用的损失函数包括均方误差(Mean Squared Error,MSE)、结构相似性指数(Structural Similarity Index,SSIM)和感知损失(Perceptual Loss)等。

  • 均方误差(MSE)是最常用的损失函数之一,它计算生成图像像素与目标图像像素之间的平均差异。通过最小化MSE,模型可以学习生成与目标图像在像素级别上最接近的增强图像。
  • 结构相似性指数(SSIM)是一种衡量图像相似度的指标,它考虑了亮度、对比度和结构信息。在图像增强中,使用SSIM作为损失函数可以帮助模型生成与目标图像在感知上更相似的图像。
  • 感知损失是基于深度学习模型的特征提取网络(如VGG网络)计算的。通过比较生成图像和目标图像在高层特征表示上的差异,感知损失可以引导模型生成更具视觉感知质量的增强图像。

选择适当的损失函数取决于具体的图像增强任务和所需的优化目标。不同的损失函数可以在图像质量、结构保持和视觉感知性等方面产生不同的影响。

它们的异同点主要如下:

  • L1Loss和MSELoss更Focus于预测值和真实值在像素级的差异。CharbonnierLoss也关注像素差异,但计算更平滑,鲁棒性更好。
  • PerceptualLoss不仅关注像素差异,也会考虑特征层的输出,评估图像主观感知质量。
  • L1Loss和MSELoss易受离群点影响,而CharbonnierLoss对离群点更加鲁棒。
  • L1Loss产生稀疏梯度,MSELoss和CharbonnierLoss产生稠密梯度,对优化影响不同。
  • PerceptualLoss可以产生更丰富的纹理细节,更好的主观视觉效果。

Exploring Models and Data for Remote Sensing Image Caption Generation论文阅读与复现

本文研究了如何用准确而灵活的句子来描述遥感图像。

在句子生成方面,基于检索的方法发展到了递归神经网络。

图像表示法包括静态全局表示法和动态区域表示法。

生成图像描述的方法,如循环神经网络rnn,长短期记忆网络。LSTM, 基于检索的方法和基于对象检测的方法,而遥感语义复杂

比较自然图像三种方法

检索 找图

对象 物体关系建模

编解码器 中间值向量 :

1.CNN+语言生成模型

2.RNN+LSTM

3.39多模态循环神经网络架构(提取图像特征的cnn+表示句子的双向循环神经网络+结构化目标)

4.注意力机制两种

5.爆发区

6.FCLN全卷积定位

7.审查网络+注意力

遥感上下文

26深度多模态

​ 表示遥感图,手工到深度cnn

​ 表示句子 都热

​ 生成句子 rnn55入256隐藏层256,lr0.0001

28 dl+cnn

39注意力

​ 确定性 标准反向传播

​ 随机 最大化下线 入512隐藏层512,

遥感字幕注释特殊性;尺度一致性,类别模糊性,旋转模糊性

Cnn

首次提出了一种用于高分辨率遥感图像与易理解的深度多模态神经网络模型。

他利用卷积神经网络提出一个遥感图像标题框架。

诞生成句子简单

UCM

悉尼

RSICD数据集:224224像素,10921幅5句(所有重要,无”有”,无比较级,无相对位置,至少6单词),24333句=724*5+1495*4+2182*3+1667*2+4853*1,3323词,30种图 测试9:1

好的图像描述

好的图像标注

好的评估

BLEU

ROUGE_L

METEOR好

CIDER大

BLUE

好的方法


Comment
avatar
baixie-g
欢迎,阅读,点评
跟我走
Announcement
g的blog正在建设欢迎您
Recent Post
关于周更
关于周更
梦开始地方
梦开始地方
Info
Article :
4
Total Count :
2.1k
UV :
PV :
Last Push :