We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
import numpy as np def softmax(x): """Compute softmax values for each sets of scores in x.""" # e_x = np.exp(x) e_x = np.exp(x ) return e_x / e_x.sum() if __name__ == '__main__': x = np.array([-3, 2, -1, 0]) res = softmax(x ) print(res) # [0.0056533 0.83902451 0.04177257 0.11354962]
x = [106, 97, 100, 101, 99, 103, 97, 113, 112, 110] y = [7, 0, 27, 50, 28, 29, 20, 12, 6, 17] x1 = np.array([1.5, 1.5, 3, 4, 5, 6, 7, 8, 9, 10],dtype='float64') y1 = np.array([1, 6, 8, 7, 10, 9, 3, 5, 2, 4],dtype='float64') # 表示x1和x2的平均值 x_mean = sum(x1)/len(x1) y_mean = sum(y1)/len(y1) son = sum((x1-x_mean)*(y1-y_mean)) mother = (sum((x1-x_mean)**2))**(0.5) * (sum((y1-y_mean)**2))**(0.5) hand_srcc = son / mother print("hand_srcc2=", hand_srcc)
K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。(这就类似于现实生活中少数服从多数的思想)。
距离的度量:欧氏距离
(1)扫描整个数据集,找到任意一个核心点,对该核心点进行扩充。扩充的方法是寻找从该核心点出发的所有密度相连的数据点(注意是密度相连)。遍历该核心点的 邻域内的所有核心点(因为边界点是无法扩充的),寻找与这些数据点密度相连的点,直到没有可以扩充的数据点为止。最后聚类成的簇的边界节点都是非核心数据点。 (2)重新扫描数据集(不包括之前寻找到的簇中的任何数据点),寻找没有被聚类的核心点,再重复上面的步骤,对该核心点进行扩充。 (3)直到数据集中没有新的核心点为止。数据集中没有包含在任何簇中的数据点就构成异常点。
a = A(input) a = a.deatch() out = B(a) loss = criterion(out, labels) loss.backward()
for param in B.parameters(): param.requires_grad = False
The text was updated successfully, but these errors were encountered:
No branches or pull requests
1. 智颜星球
(1) Softmax函数公式
(2) C++中的多态
(3) 美学评价论文中loss和评价指标(srcc) 怎么计算的
2. 镁佳科技
(1) CNN的特点
(2) Transformer 和 Conformer
FFN由全连接层、激活函数和Layer Normalization组成,LN会将每一层神经元的输入都转成均值方差都一样的,这样可以加快收敛。
(3) 聚类算法KNN、DBSCAN、k-means
KNN
K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。(这就类似于现实生活中少数服从多数的思想)。
距离的度量:欧氏距离
DBSCAN
k-means
(4) 膨胀卷积是什么,如何解决膨胀后特征丢失的问题
(5) BN和LN的区别,什么时候用BN,什么时候用LN
(6) 训练模型时,如何让一部分参数更新,一部分参数冻结,tensor.detach()是什么
The text was updated successfully, but these errors were encountered: