首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏仿真教程

    FEA和FEM是如何协同工作的

    有限元法(FEM)和有限元分析(FEA)协同工作,让工程师了解特定设计的结构,以便工程师可以发现工件的弱点并改进它们。 有限元分析(FEA):有限元背后的数学方程被应用于创建一个仿真,或被称为有限元分析(FEA)这个玩意儿。这个仿真被用来做结构分析,特定的产品或设计一种场景,比如在现实世界的压力下会发生什么。 换句话说,FEA是一个虚拟的模型,它帮助工程师试验特定的结构设计,通常是用软件来完成。两者相结合:FEA和FEM通过基础数学从而被用来预测结构的行为和设计的完整性。 FEA和FEM的优点 提高精度和增强设计:FEA和FEM可以提高结构分析的精度,因为它们可以深入了解设计的各个元素是如何在细微细节上相互作用的。它们还允许工程师研究设计的内部和外部。 快速和廉价的测试:因为FEM和FEA允许工程师创建模拟的工程,他们减少了对物理原型和测试的需求,这节省了时间和成本。

    1.3K30发布于 2021-04-28
  • 来自专栏仿真教程

    所有工程师在FEA之前应了解的6件事

    每个行业的工程师都将有限元分析(FEA)集成到设计周期中,以确保其产品安全,具有成本效益并且可以快速推向市场。 但是,分析并不像将CAD模型放入任何FEA包中那样简单。 今天有比以往更多的软件选项。 本文将简要讨论一些FEA基础知识,然后概述工程师在决定使用FEA时需要了解的内容。 1.     FEA基础知识。有限元模型是要分析的连续物理零件的离散表示。 FEA系统以进行设置和分析。 “一窗口式” CAD / FEA方法不需要文件翻译,因为FEA供应商将分析功能内置到CAD实体建模器中。用户选择此选项是因为它易于使用,因为他们可以从单个应用程序中的下拉菜单访问FEA功能。 主要区别在于FEA在单独的应用程序中运行,因此FEA供应商可以提供更完整的版本(例如,包括更多的元素类型,网格和分析选项),而无需其他分析软件。

    62230发布于 2021-04-26
  • 来自专栏仿真教程

    FEM和FEA解释

    有限元方法(FEM)是一种数值技术,用于对任何给定的物理现象进行有限元分析(FEA)。 必须使用数学来全面理解和量化任何物理现象,例如结构或流体行为,热传输,波传播和生物细胞的生长。

    8.6K10发布于 2021-04-27
  • 来自专栏仿真CAE与AI

    有限元分析(FEA)能做什么?一文读懂其应用场景与发展前景

    在现代工程设计领域,有限元分析(FEA)早已超越 “辅助工具” 的范畴,成为攻克复杂工程难题、驱动产品创新的核心技术支撑。 作为工程仿真领域的关键技术,FEA 究竟能解锁哪些核心应用场景?下文将为您展开详细解析。 作为工程仿真领域的核心技术利器,有限元分析(FEA)的应用场景已深度覆盖航空航天、汽车制造、机械装备、电子电器等多元行业。

    48910编辑于 2025-11-21
  • 来自专栏秋枫学习笔记

    动手实现wide and deep

    = deep_fea_nums self.wide_fea_nums = wide_fea_nums self.embs = nn.ModuleDict() [fea_name] emb = nn.Embedding(fea_nums, self.encode_dim) self.embs[fea_name] in features.keys(): if fea_name in self.embs.keys(): emb_dict[fea_name] = self.embs[fea_name](features[fea_name]) elif 'cat_his' in fea_name: emb_dict[fea_name] = emb_tmp elif 'mid_his' in fea_name:

    70020编辑于 2022-09-19
  • 来自专栏秋枫学习笔记

    动手实现DeepFM

    = fea_nums_dict self.emb_layer = nn.ModuleDict() for fea_name in self.fea_nums_dict.keys (): self.emb_layer[fea_name] = nn.Embedding( self.fea_nums_dict[fea_name] (): self.fm_first[fea_name] = nn.Embedding( self.fea_nums_dict[fea_name], in features: emb_tmp = self.fm_first[fea_name](features[fea_name]) emb_arr.append : emb_tmp = self.emb_layer[fea_name](features[fea_name]) emb_arr.append(emb_tmp

    42030编辑于 2022-09-19
  • 来自专栏又见苍岚

    降维方法 PCA、t-sne、Umap 的 python 实现

    数据集 提取游戏音频 5.7W 段,提取声音指纹特征,放在 fea.json 文件中用于测试。 ')fea_data = np.array(list(fea_info.values()))scaler = StandardScaler()data = scaler.fit_transform(fea_data = mt.json_load('fea.json')fea_list = list(fea_info.values())data = scaler.fit_transform(fea_list)tsne = TSNE(n_components=2, perplexity=20, random_state=42)new_data = tsne.fit_transform(np.array(fea_list = mt.json_load('fea.json')fea_list = list(fea_info.values())data = scaler.fit_transform(fea_list)reducer

    1.9K20编辑于 2023-06-27
  • 来自专栏秋枫学习笔记

    【动手实现】DCN

    DCN(nn.Module): def __init__(self, hidden_dims, cross_num, emb_dim, dropouts, fea_nums_dict = fea_nums_dict # 不同特征的embedding层 self.emb_layer = nn.ModuleDict() for fea_name in self.fea_nums_dict.keys(): self.emb_layer[fea_name] = nn.Embedding( self.fea_nums_dict [fea_name], emb_dim) # DNNs部分 input_dim = len(self.fea_nums_dict.values()) * emb_dim in features: emb_tmp = self.emb_layer[fea_name](features[fea_name]) emb_arr.append

    54120编辑于 2022-09-19
  • 来自专栏PaddlePaddle

    PaddlePaddle实战 | KDD Cup Regular ML Track 基线实现解析

    context_feature_fm.append(hash(fea+ str(instance[fea])) % self.hash_dim) for fea inself.query_feature_list ([hash(fea+ str(plan[fea])) % self.hash_dim]) context_feature_fm.append(hash(fea+ str(plan[fea str(instance[fea])) % self.hash_dim]) context_feature_fm.append(hash(fea+ str(instance[fea])) (instance[fea])) % self.hash_dim]) context_feature_fm.append(hash(fea+ str(instance[fea])) % (weather_dic[fea])) % self.hash_dim]) context_feature_fm.append(hash(fea+ str(weather_dic[fea

    58420发布于 2019-06-06
  • 来自专栏DeepHub IMBA

    使用pytorch构建图卷积网络预测化学分子性质

    = self.conv_linear(node_fea) # Apply activation node_fea = self.conv_activation(node_fea hidden_fea_len) # Hidden layer self.hidden_layer = nn.Linear(hidden_fea_len, hidden_fea_len = conv(node_fea, adj_mat) # Perform pooling pooled_node_fea = self.pooling(node_fea (hidden_node_fea) hidden_node_fea = self.dropout(hidden_node_fea) # Subsequent hidden [i](hidden_node_fea) hidden_node_fea = self.hidden_dropout_layers[i](hidden_node_fea

    55221编辑于 2024-01-04
  • 来自专栏科学最Top

    时序顶会基础创新知识点- Patch深入理解上篇

    在时序任务中,以天气数据为例,我们通常有“温度、湿度、气压、风速”等特征,输入层对应的是上述多个特征在不同时间点的值,input_size就等于特征个数fea_size。 , fea_size, seq_len] x = x.unfold(dimension=-1,size=2, step = 2) print(x.shape) x #[batch_size, fea_size patch TST中,作者是把batch_size和fea_size进行了合并。 现在回到开头我们看发生了什么,处理之前我们输入到LSTM/Transformer的特征维度是[batch_size, seq_len, fea_size]。 而经过上面处理后,特征维度变为了[(batch_size*fea_size),patch_num,patch_len], 我们观察到此时batch_size和fea_size已经合并,而且输入到模型的真实数据变为

    57510编辑于 2024-11-26
  • 来自专栏全栈程序员必看

    逻辑回归模型_RF模型

    一行行读数据并解析 with open(data_in, 'r') as fd: for line in fd: ss = line.strip().split(' ') label = ss[0] fea = ss[1:] target_list.append(int(label)) for fea_score in fea: sss = fea_score.strip().split(':') if = 2: continue feature, score = sss fea_row_list.append(row_index) fea_col_list.append(int(feature)) data_list.append ) col = np.array(fea_col_list) data = np.array(data_list) fea_datasets = csr_matrix((data, (row, col) ), shape=(row_index, max_col+1)).toarray() #当特征维度过大时,选下面这种方式(加toarray()和不加都是对的),内存不容易爆掉 #fea_datasets

    99920编辑于 2022-11-04
  • 来自专栏AI小白入门

    【ML】分类树算法原理及实现

    现在先为树中的节点定义一个结构类,代码如下: class node: def __init__(self, fea=-1, value=None, results=None, right=None , left=None): self.fea = fea # 用于切分数据集的特征的列索引值 self.value = value # 设置划分的值 None # 存储切分后的两个数据集 feature_num = len(data[0]) - 1 # 样本中特征个数 # 2、通过贪心法找到最好的划分 for fea in range(0, feature_num): # 2.1、取得fea特征处所有可能的取值 feature_values = {} # 在fea位置处可能的取值 for sample in data: feature_values[sample[fea]] = 1 # 存储特征fea处所有可能的取值

    1.2K20发布于 2020-05-25
  • 来自专栏Tensorbytes

    关于kubeconfig多集群切换

    cluster: kubernetes user: "212785087522004927" name: 212785087522004927-c02e82b6adaf044bd94d251fea1279648 current-context: 212785087522004927-c02e82b6adaf044bd94d251fea1279648 kind: Config preferences: {} users cluster: kubernetes user: "212785087522004927" name: 212785087522004927-c02e82b6adaf044bd94d251fea1279648 切换到第二个集群: $ kubectl config use-context 212785087522004927-c02e82b6adaf044bd94d251fea1279648 Switched to context "212785087522004927-c02e82b6adaf044bd94d251fea1279648".

    3K20发布于 2020-08-17
  • 来自专栏网络安全自修室

    漏洞考古之永恒之蓝(ms17-010)复现总结

    SrvOs2FeaListToNt在处理FEA(File Extended Attributes)转换时,在大非分页池(内核的数据结构,Large Non-Paged Kernel Pool)上存在缓冲区溢出 SrvOs2FeaListToNt在将FEA list转换成NTFEA(Windows NT FEA) list前会调用srv! SrvOs2FeaListSizeToNt去计算转换后的FEA lsit的大小。 然后会进行如下操作: srv! SrvOs2FeaListSizeToNt会计算FEA list的大小并更新待转换的FEA list的大小 因为错误的使用WORD强制类型转换,导致计算出来的待转换的FEA list的大小比真正的FEA list大 因为原先的总大小计算错误,导致当FEA list被转化为NTFEA list时,会在非分页池导致缓冲区溢出 具体原理参考文末:NSA Eternalblue SMB 漏洞分析 - 360

    13K41编辑于 2022-12-06
  • 来自专栏灵儿的笔记

    [已解决]SpringDataJPA+Hibernate在执行executeUpdate()的时候报错 Executing an update/delete query

    很简单的三层架构例子 当时抓狂的异常就在下面了,部分敏感部分我就用*号替换了,也不重要 17:21:42.209 [grp0#CsfServerRequestHandleThread-3630ad242aa24fea9f2c2f6a5ea35435 ] DEBUG com.****************.executor.request.filter.RecordFilter - 请求 [requestId=3630ad242aa24fea9f2c2f6a5ea35435 keep-alive, Host=localhost:36102, Accept-Encoding=gzip, deflate, serialize-type=json, uuid=3630ad242aa24fea9f2c2f6a5ea35435 yjltable SET name='aaaaaaaa' WHERE id='111' 17:21:45.552 [grp0#CsfServerRequestHandleThread-3630ad242aa24fea9f2c2f6a5ea35435 Statistics initialized [enabled=false] 17:21:45.745 [grp0#CsfServerRequestHandleThread-3630ad242aa24fea9f2c2f6a5ea35435

    5.1K10发布于 2020-06-24
  • 来自专栏AI小白入门

    【ML】回归树算法原理及实现

    np.mat(dataSet) return np.var(data[:, -1]) * np.shape(data)[0] 回归树 先定义样本被划分到左右子树的过程函数,原理为根据特征fea 位置处的特征,按照值value将样本划分到左右子树中,当样本在特征fea处的值大于或者等于value时,将其划分到右子树中;否则,将其划分到左子树中。 用代码实现如下: def split_tree(data, fea, value): '''input: data训练样本 fea需要划分的特征编号 set_2)左右子树的聚合''' set_1 = [] # 右子树的集合 set_2 = [] # 左子树的集合 for x in data: if x[fea , left=None): self.fea = fea # 用于切分数据集的特征的列索引值 self.value = value # 设置划分的值

    84110发布于 2020-05-25
  • 来自专栏仿真CAE与AI

    机器学习 vs 有限元分析:一文看懂两者的区别、联系与协同价值

    在数字化技术浪潮席卷各领域的当下,机器学习(ML)与有限元分析(FEA)已成为工程与科研领域不可或缺的利器。 通过将连续介质离散为有限数量的元素,FEA能够解决复杂的边界条件和非线性问题,为工程师提供结构性能的深入理解。(1)基本原理:FEA将复杂的物理问题转化为一组代数方程,通过数值求解得出问题的近似解。 (2)应用领域:FEA被广泛应用于土木工程、航空航天、汽车制造、生物医学等多个领域,用于预测和优化设计。 (2)优化设计过程:将机器学习与FEA结合,能够加速设计优化过程。通过使用机器学习方法快速评估设计方案,结合FEA进行精确分析,能够有效缩短设计周期。 未来的发展方向可能包括:(1)深度学习与模型简化:使用深度学习技术简化和加速复杂FEA模型的求解过程,实现实时模拟。

    43400编辑于 2025-06-11
  • 来自专栏GiantPandaCV

    【CV中的Attention机制】Selective-Kernel-Networks-SE进化版

    nn.Softmax(dim=1) def forward(self, x): for i, conv in enumerate(self.convs): fea feas = torch.cat([feas, fea], dim=1) fea_U = torch.sum(feas, dim=1) fea_s = fea_U.mean (-1).mean(-1) fea_z = self.fc(fea_s) for i, fc in enumerate(self.fcs): print (i, fea_z.shape) vector = fc(fea_z).unsqueeze_(dim=1) print(i, vector.shape) attention_vectors) attention_vectors = attention_vectors.unsqueeze(-1).unsqueeze(-1) fea_v

    1.8K10发布于 2020-02-12
  • 来自专栏各类技术文章~

    C语言指针(二)数组指针云指针数组

    n数组元素所指向的元素%d\n", *arr[i]); /* code */ } /* code */ return 0; } 输出结果: 数组的元素:0061FEA0 数组元素所指向的元素0 数组的元素:0061FEA0 数组元素所指向的元素1 数组的元素:0061FEA0 数组元素所指向的元素2 数组的元素:0061FEA0 数组元素所指向的元素3 数组的元素:0061FEA0 数组元素所指向的元素4 数组的元素:0061FEA0 数组元素所指向的元素5 数组的元素:0061FEA0 数组元素所指向的元素6 数组的元素:0061FEA0 数组元素所指向的元素7 数组的元素:0061FEA0 数组元素所指向的元素8 数组的元素:0061FEA0 数组元素所指向的元素9 因为i是临时变量,所以在每次循环之后都会销毁,下次使用再次开辟,所以内存地址是一样的。

    1.7K00发布于 2021-09-24
领券