首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏晓枫说

    晓枫说:你做不好公关,是你不懂公关也可以精准化

    很多做公关的,尤其是初创公司的公关人员,常常会遇到无话可说、无传播点可谈的尴尬境地,事实上,这很大程度上源于没有针对所在企业可能辐射的圈层,制定针对性的内容框架和传播策略。 三、合适的时机,做合适的事情 让我们把视线拉回到创业公司这个维度,正如前文所说,很多初创公司公关人员囷于找不到传播点,而无法有效发挥公关的价值。 事实上,现阶段的创业公司,至少面临着三大公关困境,分别是——没有传播点、没有媒体资源、没有钱。 而这对应着三大纲领,即如何寻找传播点,如何找资源以及如何省钱。我想,这也算是公关精准化的另一个视角。 创业公司如何做公关?第一思路依然在于如何确定传播点。不管是创始人还是做公关的或营销的人,我觉得这是一个基础的逻辑。从大环境来看,2018年是IPO大年,大家会比较关注这些企业重大的动态。 因此在明确好企业差异化的传播点之后,在广度和深度上进行权衡,筛选出领域内适宜的媒体平台,既要能分辨传播度高的媒体,也要根据传播情况考虑要不要在广度上做更多覆盖。

    50330发布于 2019-04-11
  • 来自专栏科技向令说

    公关战之下,分裂的今日头条

    从上周三开始,今日头条和腾讯的战争进入白热化,一系列的公关战和诉讼,都宣示着移动互联网时代最后一战打响。 1 感谢今日头条,让我看到公关的“超限战”如何进行——假借核心党媒,对竞争对手的游戏业务发起“大字报”一样的攻击,并在拥有数亿用户的产品上进行全量推送。 ? 这是因为头条在公关上“操作失当”。除了在策略上挟央媒以令腾讯,让很多人厌恶之外。其更大的错误在于,虽然以腾讯为靶子,但抨击的论据却指向“游戏”本身——这种老掉牙的道德指责,无新意也无说服力。 所以,盛大游戏公关总监赵继文称:“头条赚游戏的钱,又砸游戏的牌子,(对这种操作)整体游戏行业应该都比较反感。” 比如4月中旬的时候,抖音短视频与西安市政府达成合作,宣布将基于抖音的全系产品,在世界范围内宣传推广西安的文化旅游资源;5月份,又宣布与国内7家博物馆合作,举办视频创意大赛。

    55530发布于 2018-08-21
  • 来自专栏人称T客

    联想“投票门”事件 看危机公关的处理

    另外,就是拉着华为两次声明着实不妥,特别是最后这一次华为明显是被迫帮联想站台洗白,华为在声明中多次强调5G的研究与发展需要各国研究机构和企业的共同参与,华为表示:“华为公司作为5G研究和标准的主要贡献者之一 在5G的投票中,联想的第一份公关声明就很有问题,心藏侥幸,以求万一,没有及时向用户做出明确的解释,甚至连用户质疑的焦点都没有抓住,只求阿弥陀佛,躲过这一劫。 并且强调,一直以来,联想都非常支持中国5G技术的发展,未来也会为推动5G技术和相关产品的研发而继续努力。 虽然联想第一时间由公关部发布辟谣声明,但是明显办法不多,联想的公关团队显然高估了自已的危机处理能力,根本就没有意识到事态发展的严重性,认为不停的对媒体进行公关删稿或者雇佣水军影响网友言论导向,没想到“中兴芯片事件 第一、不要一味的在危机公关中标榜自己的产品和自已的功绩,你是危机公关还是在宣扬自已呢? 第二、也不要试图瞒天过海,遇到问题就要解决问题,诚实是最好的危机公关

    1.2K50发布于 2018-06-06
  • 来自专栏机器学习算法与Python学习

    反向传播算法

    反向传播算法 目录 关键词 损失函数 反向传播算法 BP算法伪代码 上一篇----》神经网络 》点击查看 1 关键词 反向传播算法 Backpropagation Algorithm 批量梯度下降法 batch 我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法 3 反向传播算法 首先来讲一下如何使用反向传播算法来计算下式: ? 反向传播算法的思路如下:给定一个样例 (x, y),我们首先进行“前向传导”运算,计算出网络中所有的激活值,包括h[W,b](x)的输出值。 以上的逐步反向递推求导的过程就是“反向传播”算法的本意所在。 4 计算我们需要的偏导数,计算方法如下: ? 最后,我们用矩阵-向量表示法重写以上算法。 4 BP算法伪代码 反向传播算法可表示为以下几个步骤。 1 进行前馈传导计算,利用前向传导公式,得到L2, L3, ... 直到输出层Lnl 的激活值。

    1.6K50发布于 2018-04-08
  • 来自专栏xiaosen

    反向传播算法

    反向传播算法的过程如下: 1.前向传播 输入数据通过网络的每一层前向传播,直到最后一层产生输出。 w_2_21 * x_2 d_loss_w_1_13 = d_loss_predicted_output*w_2_31 *x_1 #使用梯度下降法更新权重 learning_rate = 1e-5 在深入探讨神经网络反向传播算法之后,我们可以清晰地认识到这一机制在现代深度学习领域中的核心地位。反向传播不仅为神经网络提供了自我学习和优化的能力,更是推动了人工智能技术的飞速发展。 通过不断地迭代和调整网络参数,反向传播使得神经网络能够逐渐逼近复杂的非线性函数,从而在各种应用场景中展现出强大的性能。 未来,随着计算能力的提升和算法的不断改进,反向传播算法将继续引领神经网络的发展,为人工智能的普及和应用奠定坚实基础。 

    47510编辑于 2024-06-13
  • 来自专栏码上遇见你

    Spring5源码之Spring七种传播特性的详解

    七种事务传播特性: 本篇文章主要讲解Spring事务的传播属性,先看一下下表: 传播特性名称 PROPAGATION_REQUIRED 如果当前没有事物,则新建一个事物;如果已经存在一个事物,则加入到这个事物中 这三种传播特性在当前不存在事务的情况是没有区别的,此事务都为新创建的连接,在回滚和提交的时候都可以正常回滚或是提交,就像正常的事务操作那样。 ,所以这里REQUIRES_NEW这个传播特性是与原事务相隔离的,用的连接都是新new出来的。 关键点在这个传播特性在存在事务情况下会创建savePoint,但不存在事务情况下是不会创建savePoint的。 在提交时不真正提交,只是释放了保存点而已,在回滚时会回滚到保存点位置,如果上层事务catch住异常的话,是不会影响上层事务的提交的,外层事务提交时,会统一提交,外层事务回滚的话,会全部回滚 5.

    37320编辑于 2023-06-28
  • 来自专栏文武兼修ing——机器学习与IC设计

    CNN的反向传播DNN中的反向传播卷积神经网络中的反向传播

    DNN中的反向传播 反向传播算法是神经网络的训练的基本算法组成之一,在训练神经网络时,训练分为两个步骤:计算梯度和更新权值。其中反向传播负责的是梯度的计算,而训练算法的区分主要在更新权值的方式上。 池化层的梯度 池化层用于削减数据量,在这一层上前向传播的数据会有损失,则在反向传播时,传播来的梯度也会有所损失。一般来说,池化层没有参数,于是仅需要计算梯度反向传播的结果。 10 11 12 13 14 15 [torch.FloatTensor of size 1x1x4x4] Variable containing: (0 ,0 ,.,.) = 5 15 [torch.FloatTensor of size 1x1x2x2] Variable containing: (0 ,0 ,.,.) = 0 0 0 0 0 5 : $$\left( \begin{array}{ccc} 0&1&2 \ 3&4&5\ 6&7&8 \end{array} \right) * \left( \begin{array}{ccc

    1.6K90发布于 2018-04-27
  • 来自专栏图像处理与模式识别研究所

    前反向传播

    #32*2的矩阵 Y=[[int(x0+x1<1)] for (x0,x1) in X] print("X:\n",X) print("Y:\n",Y) #步骤2:定义神经网络的输入,参数和输出,定义前向传播过程 tf.Variable(tf.random_normal([3,1],stddev=1,seed=1)) a=tf.matmul(x,w1) y=tf.matmul(a,w2) #步骤3:定义损失函数和反向传播方法 ] [-2.3402493 -0.14641273 0.58823055]] w2: [[-0.06024271] [ 0.9195618 ] [-0.06820712]] 算法:前反向传播是准备数据集 ,前向传播,反向传播,生成会话的过程。

    78930编辑于 2022-05-29
  • 来自专栏涓流

    spring事务传播

    Spring 事务的传播级别 Spring 事务传播级别与数据库事务隔离级别不同,传播分为 7 种级别: PROPAGATION_REQUIRED:Spring的默认传播级别,如果上下文中存在事务则加入当前事务 PROPAGATION_MANDATORY:该传播级别要求上下文中必须存在事务,否则抛出异常 PROPAGATION_REQUIRES_NEW:该传播级别每次执行都会创建新事务,并同时将上下文中的事务挂起 PROPAGATION_NEVER:该传播级别要求上下文中不能存在事务,否则抛出异常。 PROPAGATION_REQUIRED 在UserService中申明事务的传播级别为PROPAGATION.REQUIRED: @Service public class UserServiceImpl Propagation.REQUIRES_NEW传播级别下会开启自己的事务,独立运行 外围开启事务 方法一: @Transactional(propagation = Propagation.REQUIRED

    93920编辑于 2022-06-28
  • 来自专栏大数据文摘

    快讯 | 纽约时报爆料:FB雇人写公关稿黑谷歌苹果

    但是,小扎一直想消除这些负面影响,除了做出了一些技术改变之外,他还一直非常注重公关层面的努力。 即,找公关公司写苹果,谷歌等竞争对手的黑稿。 据纽约时报的报道,Facebook在去年就与一家总部位于华盛顿的公关公司走的非常近。 于是在2017年10月加强了与这家公关公司的关系。 该公关公司撰写的文章抨击谷歌和苹果的同时,也在一定程度上淡化了俄罗斯干预对Facebook的影响。 另外,这些文章是在NTK Network上发表的,NTK Network是该公关公司旗下媒体,其内容往往迎合政治保守派主张。 Facebook与这家公关公司之间的关系,是纽约时报揭露Facebook近几年一系列丑闻报道之一。

    64220发布于 2018-12-13
  • 来自专栏技术随笔

    深度学习 — 反向传播(BP)理论推导BP Math Principle前向传播反向传播应用实例Reference

    前向传播 首先分析神经元h1: ![][01] [01]:http://latex.codecogs.com/png.latex? J_{o2}%20=%20\frac{1}{2}(output(o2)-y2)^2 反向传播 【输出层】 对于w5,想知道其改变对总误差有多少影响,于是求Jtotal对w5的偏导数,如下: ! w5^+%20=%20w5%20-%20\eta*\frac{\partial%20J_{total}}{\partial%20w5} 同理可以更新参数w6,w7,w8。 在有新权重导入隐藏层神经元(即,当继续下面的反向传播算法时,使用原始权重,而不是更新的权重)之后,执行神经网络中的实际更新。 当最初前馈传播时输入为0.05和0.1,网络上的误差是0.298371109。 在第一轮反向传播之后,总误差现在下降到0.291027924。 它可能看起来不太多,但是在重复此过程10,000次之后。

    1.3K60发布于 2018-05-16
  • 来自专栏blog-技术博客

    反向传播详解

    反向传播 下降的幅度与斜率大小成正比,越到最小点时,每步应越来越小,防止调过头 某一点导数大小即可表现为 w的变化幅度 w - k * ▽J(w) ▽J(w)为正表示向左走 w变小 ,为负表示向右走

    82630发布于 2020-05-11
  • 来自专栏科研菌

    谣言5G传播新冠都发了SCI?Elisabeth Bik怒怼!

    图一说皮肤上有类似天线一样的结构可以接受5G的信号,但是传统的无线电视不能穿透皮肤细胞的。 ? 图二就来了5G穿过细胞以后能够引起某些基因的表达改变?什么基因的表达改变? 图5就直接来了,5G能够穿透细胞膜然后产生新冠病毒?我三观碎了一地… 我们看看打假斗士Elisabeth M Bik在PubPeer上对这篇文章的评论吧。 ? ? 难道5G已经能特异性地传播某种病毒了?这假设也太离谱了吧?这比小编平时看到的“手机辐射能致癌”的谣言还要荒唐。 ? 传播这样的谣言,只会引起更多的恐慌,以这样的伪科学形式来全程虚构科学,他们不配当一名合格的科研工作者。 此外,我们还发现,其实已经有人发文来辟谣并且说明这样的fake news的危害性了。 但是谣言往往比真像传播得更快更远;制造和传播谣言可能只需要轻轻动动手指,辟谣可能得用掉百倍千倍的付出。 ? 最后想对那篇文章的作者说:“不会做科研,您至少做个人吧!”

    44540发布于 2020-07-28
  • 来自专栏诡途的python路

    BP反向传播

    targets_train, features_test, targets_test # *************************************** """ GRE带隐藏层反向传播案例 ) def gre_bp_answer(features_train, targets_train, features_test, targets_test): """ gre反向传播函数 ) # 构建遍历数据集的循环 for x, y in zip(features_train.values, targets_train): # 5、 正向传播 hidden_input = np.matmul(x, weights_input_hidden) hidden_output = sigmoid hidden_input) output = sigmoid(np.matmul(hidden_output, weights_hidden_output)) # 6、反向传播

    68210编辑于 2021-12-30
  • 来自专栏Java帮帮-微信公众号-技术文章全总结

    spring的4种事务特性,5种隔离级别,7种传播行为

    解决读问题: 设置事务隔离级别(5种) DEFAULT 这是一个PlatfromTransactionManager默认的隔离级别,使用数据库默认的事务隔离级别. 事务的传播行为 PROPAGION_XXX :事务的传播行为 * 保证同一个事务中 PROPAGATION_REQUIRED 支持当前事务,如果不存在 就新建一个(默认) PROPAGATION_SUPPORTS

    64130发布于 2018-08-16
  • 来自专栏全栈数据化营销

    营销传播案例:肯德基早餐现熬好粥传播方案

    这个案例在渠道和渠道内容上可以借鉴的地方很多,特别是如何在线下做大规模的全方面推广的方式,以及在做渠道时候如何通过内容来传递洞察的方式是很值得称道的。

    1.1K10发布于 2018-08-03
  • 来自专栏科技向令说

    响铃:从苗寨失火事件看公关借势的正确姿势

    面对灾难等敏感性话题,企业或组织行动之前就得首先确定这事能不能去掺和,比如有明显政治元素在内的人祸就最好不要碰,只有符合品牌调性又较为安全的传播话题才是我们借势公关的基点。 而且它的传播原则首先是真实可信,绝不能有任何虚假。当然,公共关系信息传播也要讲究引人注目,但“引人注目”是从属于真实性,是为真实性服务的。 最后,还得建立开放“参与感”式的主动传播机制。原来社会性公关的信息传播路径主要是新闻传播的手段,如新闻稿、新闻发布会、报纸、杂志等。 陷阱一、公关传播没有一劳永逸 公共借势是一项长期的工作,需要贯穿在经营管理的全过程中且处于全局性的地位,急功近利的方式是很难奏效的。而且这种传播形式的整体效益是难于通过利润的尺度来直接衡量的。 总之,当传统PR依赖的传统传播方式正在死亡,新媒体营销模式正在前行,对于公关借势,我们还有更多的事情要做。

    37930发布于 2018-08-20
  • 来自专栏wOw的Android小站

    反向传播Back Propagation

    反向传播的理解 知乎看到一个例子,的确有助于理解,摘抄整理下来. 如何直观地解释 back propagation 算法? - 胡逸夫的回答 - 知乎 ? 第三层,$a = 2 1 = 2, b = 2 1 + 3 * 1 = 5$,即e对a的偏导值是2,e对b的偏导值是5 通过以上就可以对BP的工作原理有了一定了解. 隐藏层的信号传播,Wmn是第m到第n个神经元的权重 ? ? 输出层的计算 ? 到这里就是前向传播. 这时就要提到反向传播了,想法是,将错误信号d返回给所有神经元,输出信号是被讨论神经元的输入信号. ? ? 用于传播错误的权重系数$W_{mn}$等于在计算输出值期间使用的系数(就是反向计算的时候使用和之前一样的权重)。只是计算方向变了。对所有的网络层都按这个方式进行。 ? ? ?

    1.1K10发布于 2018-09-18
  • 来自专栏罗超频道

    蓝色光标进军大数据,这个世界怎么了?

    摘要:蓝色光标走大数据和科技路线的核心在于,它不是一家公关公司,而是一家营销传播公司,营销大于传播。 蓝色光标,中国最大的营销传播公司在上周对外发布了大数据战略,宣称要成为一家“科技公司”。 凭借给联想、百度等互联网(3C)巨头做PR起家,蓝标与中国互联网一起成长,成为中国最大公关公司,并成功登陆创业板上市。在数次并购和多年转型之后,蓝标从公关公司转型为营销传播公司。 但不论是公关还是营销传播公司,均没有像互联网巨头、运营商或者产业企业一样掌握着海量用户进而掌握海量数据,将大数据作为战略,这个世界怎么了? 去年,广告的收入已经超过了公关收入,成为目前蓝标收入最重要的来源之一。 正是在公关业务占比不断缩小的背景之下,蓝标的营销属性愈发强烈。官方介绍为“营销传播公司”,实际是“营销公司”+“公关公司”。 BlueView智能营销系统主要是整合自有数据和业界优质数据、资源,为客户基于大数据的营销和传播提供全面的技术支持。而BlueMP则满足企业移动端Html5建站和轻app产品需求。

    1.8K150发布于 2018-04-28
  • 来自专栏SimpleAI

    【DL笔记4】神经网络,正向传播和反向传播

    神经网络的“两个传播”: 前向传播(Forward Propagation) 前向传播就是从input,经过一层层的layer,不断计算每一层的z和a,最后得到输出y^ 的过程,计算出了y^,就可以根据它和真实值 反向传播(Backward Propagation) 反向传播就是根据损失函数L(y^,y)来反方向地计算每一层的z、a、w、b的偏导数(梯度),从而更新参数。 ? 每经过一次前向传播和反向传播之后,参数就更新一次,然后用新的参数再次循环上面的过程。这就是神经网络训练的整个过程。 三、反向传播 反向传播说白了根据根据J的公式对W和b求偏导,也就是求梯度。因为我们需要用梯度下降法来对参数进行更新,而更新就需要梯度。 进行了反向传播之后,我们就可以根据每一层的参数的梯度来更新参数了,更新了之后,重复正向、反向传播的过程,就可以不断训练学习更好的参数了。

    1.1K30发布于 2018-10-25
领券