首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏晓枫说

    晓枫说:你做不好公关,是你不懂公关也可以精准化

    很多做公关的,尤其是初创公司的公关人员,常常会遇到无话可说、无传播点可谈的尴尬境地,事实上,这很大程度上源于没有针对所在企业可能辐射的圈层,制定针对性的内容框架和传播策略。 三、合适的时机,做合适的事情 让我们把视线拉回到创业公司这个维度,正如前文所说,很多初创公司公关人员囷于找不到传播点,而无法有效发挥公关的价值。 事实上,现阶段的创业公司,至少面临着三大公关困境,分别是——没有传播点、没有媒体资源、没有钱。 而这对应着三大纲领,即如何寻找传播点,如何找资源以及如何省钱。我想,这也算是公关精准化的另一个视角。 创业公司如何做公关?第一思路依然在于如何确定传播点。不管是创始人还是做公关的或营销的人,我觉得这是一个基础的逻辑。从大环境来看,2018年是IPO大年,大家会比较关注这些企业重大的动态。 因此在明确好企业差异化的传播点之后,在广度和深度上进行权衡,筛选出领域内适宜的媒体平台,既要能分辨传播度高的媒体,也要根据传播情况考虑要不要在广度上做更多覆盖。

    50230发布于 2019-04-11
  • 来自专栏科技向令说

    公关战之下,分裂的今日头条

    从上周三开始,今日头条和腾讯的战争进入白热化,一系列的公关战和诉讼,都宣示着移动互联网时代最后一战打响。 1 感谢今日头条,让我看到公关的“超限战”如何进行——假借核心党媒,对竞争对手的游戏业务发起“大字报”一样的攻击,并在拥有数亿用户的产品上进行全量推送。 ? 这是因为头条在公关上“操作失当”。除了在策略上挟央媒以令腾讯,让很多人厌恶之外。其更大的错误在于,虽然以腾讯为靶子,但抨击的论据却指向“游戏”本身——这种老掉牙的道德指责,无新意也无说服力。 所以,盛大游戏公关总监赵继文称:“头条赚游戏的钱,又砸游戏的牌子,(对这种操作)整体游戏行业应该都比较反感。”

    55530发布于 2018-08-21
  • 来自专栏人称T客

    联想“投票门”事件 看危机公关的处理

    联想的危机公关可谓一错再错,没有表现出一个国际型大企业的危机处理意识,倒是有可能被写进教材永垂青史,不过有可能是一部反面教材。 一错:一招“急于澄清”变成了“越描越黑”。 在华为这份声明中,有一句话耐人寻味,“绝不敲诈其他任何公司或社会”,不知道华为为何在声明中用这一词语,按理说华为是一家国际化大公司,应对危机公关有自已的一套理论和方法,特别是在公关用语方面。 虽然联想第一时间由公关部发布辟谣声明,但是明显办法不多,联想的公关团队显然高估了自已的危机处理能力,根本就没有意识到事态发展的严重性,认为不停的对媒体进行公关删稿或者雇佣水军影响网友言论导向,没想到“中兴芯片事件 一招“高估了自已”的本想靠公关团队就能灭火的傲慢之举变成了“错估了形势”的引火自焚。下面的联想的回应就很能说明问题。 ? ? 不过通过联想的事件,也给很多企业上了一堂危机公关课。 第一、不要一味的在危机公关中标榜自己的产品和自已的功绩,你是危机公关还是在宣扬自已呢? 第二、也不要试图瞒天过海,遇到问题就要解决问题,诚实是最好的危机公关

    1.2K50发布于 2018-06-06
  • 来自专栏机器学习算法与Python学习

    反向传播算法

    反向传播算法 目录 关键词 损失函数 反向传播算法 BP算法伪代码 上一篇----》神经网络 》点击查看 1 关键词 反向传播算法 Backpropagation Algorithm 批量梯度下降法 batch 我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法 3 反向传播算法 首先来讲一下如何使用反向传播算法来计算下式: ? 反向传播算法的思路如下:给定一个样例 (x, y),我们首先进行“前向传导”运算,计算出网络中所有的激活值,包括h[W,b](x)的输出值。 以上的逐步反向递推求导的过程就是“反向传播”算法的本意所在。 4 计算我们需要的偏导数,计算方法如下: ? 最后,我们用矩阵-向量表示法重写以上算法。 4 BP算法伪代码 反向传播算法可表示为以下几个步骤。 1 进行前馈传导计算,利用前向传导公式,得到L2, L3, ... 直到输出层Lnl 的激活值。

    1.6K50发布于 2018-04-08
  • 来自专栏xiaosen

    反向传播算法

    反向传播算法的过程如下: 1.前向传播 输入数据通过网络的每一层前向传播,直到最后一层产生输出。 3.反向传播 通过链式法则从输出层反向逐层计算损失函数对每个参数(权重和偏置)的梯度。这涉及到对损失函数关于网络输出的导数,以及网络输出关于网络参数的导数的计算。 在深入探讨神经网络反向传播算法之后,我们可以清晰地认识到这一机制在现代深度学习领域中的核心地位。反向传播不仅为神经网络提供了自我学习和优化的能力,更是推动了人工智能技术的飞速发展。 通过不断地迭代和调整网络参数,反向传播使得神经网络能够逐渐逼近复杂的非线性函数,从而在各种应用场景中展现出强大的性能。 未来,随着计算能力的提升和算法的不断改进,反向传播算法将继续引领神经网络的发展,为人工智能的普及和应用奠定坚实基础。 

    47310编辑于 2024-06-13
  • 来自专栏图像处理与模式识别研究所

    前反向传播

    #32*2的矩阵 Y=[[int(x0+x1<1)] for (x0,x1) in X] print("X:\n",X) print("Y:\n",Y) #步骤2:定义神经网络的输入,参数和输出,定义前向传播过程 tf.Variable(tf.random_normal([3,1],stddev=1,seed=1)) a=tf.matmul(x,w1) y=tf.matmul(a,w2) #步骤3:定义损失函数和反向传播方法 ] [-2.3402493 -0.14641273 0.58823055]] w2: [[-0.06024271] [ 0.9195618 ] [-0.06820712]] 算法:前反向传播是准备数据集 ,前向传播,反向传播,生成会话的过程。

    78730编辑于 2022-05-29
  • 来自专栏涓流

    spring事务传播

    Spring 事务的传播级别 Spring 事务传播级别与数据库事务隔离级别不同,传播分为 7 种级别: PROPAGATION_REQUIRED:Spring的默认传播级别,如果上下文中存在事务则加入当前事务 PROPAGATION_MANDATORY:该传播级别要求上下文中必须存在事务,否则抛出异常 PROPAGATION_REQUIRES_NEW:该传播级别每次执行都会创建新事务,并同时将上下文中的事务挂起 PROPAGATION_NEVER:该传播级别要求上下文中不能存在事务,否则抛出异常。 PROPAGATION_REQUIRED 在UserService中申明事务的传播级别为PROPAGATION.REQUIRED: @Service public class UserServiceImpl Propagation.REQUIRES_NEW传播级别下会开启自己的事务,独立运行 外围开启事务 方法一: @Transactional(propagation = Propagation.REQUIRED

    93720编辑于 2022-06-28
  • 来自专栏文武兼修ing——机器学习与IC设计

    CNN的反向传播DNN中的反向传播卷积神经网络中的反向传播

    DNN中的反向传播 反向传播算法是神经网络的训练的基本算法组成之一,在训练神经网络时,训练分为两个步骤:计算梯度和更新权值。其中反向传播负责的是梯度的计算,而训练算法的区分主要在更新权值的方式上。 于是梯度的计算被分为反向传播链条上的几个部分,将复杂的求导分割为层内运算的求导,上一层的梯度可以由本层的梯度递归的求出。 卷积神经网络中的反向传播 卷积神经网络相比于多层感知机,增加了两种新的层次——卷积层与池化层。由于反向传播链的存在,要求出这两种层结构的梯度,仅需要解决输出对权值的梯度即可。 池化层的梯度 池化层用于削减数据量,在这一层上前向传播的数据会有损失,则在反向传播时,传播来的梯度也会有所损失。一般来说,池化层没有参数,于是仅需要计算梯度反向传播的结果。 反向传播梯度 理论分析 对于卷积网络,前向传播公式为: $$a^l= \sigma(z^l) = \sigma(a{l-1}*Wl +b^l) $$ 其中$*$为卷积运算(不为乘法运算),DNN的反向传播公式为

    1.6K90发布于 2018-04-27
  • 来自专栏技术随笔

    深度学习 — 反向传播(BP)理论推导BP Math Principle前向传播反向传播应用实例Reference

    前向传播 首先分析神经元h1: ![][01] [01]:http://latex.codecogs.com/png.latex? J_{o2}%20=%20\frac{1}{2}(output(o2)-y2)^2 反向传播 【输出层】 对于w5,想知道其改变对总误差有多少影响,于是求Jtotal对w5的偏导数,如下: ! 在有新权重导入隐藏层神经元(即,当继续下面的反向传播算法时,使用原始权重,而不是更新的权重)之后,执行神经网络中的实际更新。 Jo2 = 1/2 * (0.772928465 - 0.99)^2 = 0.023560026 综合所述,可以得到总误差为:Jtotal = Jo1 + Jo2 = 0.321931135 然后反向传播 当最初前馈传播时输入为0.05和0.1,网络上的误差是0.298371109。 在第一轮反向传播之后,总误差现在下降到0.291027924。 它可能看起来不太多,但是在重复此过程10,000次之后。

    1.3K60发布于 2018-05-16
  • 来自专栏博文视点Broadview

    媒体化战略:数字时代企业如何做好公关与内容营销

    在这样的环境中,企业对新媒体的重视程度不一:有的忙于业务,很少对外宣传;有的重视线下营销业务和在传统媒体中的宣传,却忽视了数字新媒体已是用户注意力的主场;有的知道传播的重要性,却不知道如何把媒体公关、新媒体运营整合进品牌营销工作中 …… 为了解决企业的媒体公关、品牌营销、新媒体运营等重要业务的升级,《媒体化战略:数字时代企业如何做好公关与内容营销》一书应运而生! 也不同于高校传媒学者对媒体产业的观察,而是: 『把企业在互联网时代做营销卖产品(服务、解决方案、商业模式)所需要面临的与媒体化环境打交道的核心事情放在媒体化环境之中应该采用什么方法做会更省钱、更省力、更有效,把企业从市场推广、品牌传播 企业运用了媒体化战略,就能够规避企业只做内宣和只做对外公关的弊端,避免了企业品牌传播与市场业务脱节的情况,把“市场销售”放在媒体和自媒体流量变现环节来进行解决,而不是一开始就考虑变现,导致硬广告和推销泛滥 而对于要化解企业传播痛点,或者想了解创业阶段如何进行产品推广和品牌工作的朋友,本书能够提供一个清晰的认知框架。

    77820编辑于 2023-05-19
  • 来自专栏blog-技术博客

    反向传播详解

    反向传播 下降的幅度与斜率大小成正比,越到最小点时,每步应越来越小,防止调过头 某一点导数大小即可表现为 w的变化幅度 w - k * ▽J(w) ▽J(w)为正表示向左走 w变小 ,为负表示向右走

    82530发布于 2020-05-11
  • 来自专栏诡途的python路

    BP反向传播

    targets_train, features_test, targets_test # *************************************** """ GRE带隐藏层反向传播案例 ) def gre_bp_answer(features_train, targets_train, features_test, targets_test): """ gre反向传播函数 # 构建遍历数据集的循环 for x, y in zip(features_train.values, targets_train): # 5、正向传播 hidden_input) output = sigmoid(np.matmul(hidden_output, weights_hidden_output)) # 6、反向传播

    68010编辑于 2021-12-30
  • 来自专栏科技向令说

    响铃:从苗寨失火事件看公关借势的正确姿势

    面对灾难等敏感性话题,企业或组织行动之前就得首先确定这事能不能去掺和,比如有明显政治元素在内的人祸就最好不要碰,只有符合品牌调性又较为安全的传播话题才是我们借势公关的基点。 而且它的传播原则首先是真实可信,绝不能有任何虚假。当然,公共关系信息传播也要讲究引人注目,但“引人注目”是从属于真实性,是为真实性服务的。 最后,还得建立开放“参与感”式的主动传播机制。原来社会性公关的信息传播路径主要是新闻传播的手段,如新闻稿、新闻发布会、报纸、杂志等。 陷阱一、公关传播没有一劳永逸 公共借势是一项长期的工作,需要贯穿在经营管理的全过程中且处于全局性的地位,急功近利的方式是很难奏效的。而且这种传播形式的整体效益是难于通过利润的尺度来直接衡量的。 总之,当传统PR依赖的传统传播方式正在死亡,新媒体营销模式正在前行,对于公关借势,我们还有更多的事情要做。

    37730发布于 2018-08-20
  • 来自专栏wOw的Android小站

    反向传播Back Propagation

    反向传播的理解 知乎看到一个例子,的确有助于理解,摘抄整理下来. 如何直观地解释 back propagation 算法? - 胡逸夫的回答 - 知乎 ? 隐藏层的信号传播,Wmn是第m到第n个神经元的权重 ? ? 输出层的计算 ? 到这里就是前向传播. 这时就要提到反向传播了,想法是,将错误信号d返回给所有神经元,输出信号是被讨论神经元的输入信号. ? ? 用于传播错误的权重系数$W_{mn}$等于在计算输出值期间使用的系数(就是反向计算的时候使用和之前一样的权重)。只是计算方向变了。对所有的网络层都按这个方式进行。 ? ? ? 详细介绍参见[MachineLearning] 超参数之LearningRate 有一篇通过代码介绍BP的文章也很推荐: 一文弄懂神经网络中的反向传播法——BackPropagation

    1.1K10发布于 2018-09-18
  • 来自专栏全栈数据化营销

    营销传播案例:肯德基早餐现熬好粥传播方案

    这个案例在渠道和渠道内容上可以借鉴的地方很多,特别是如何在线下做大规模的全方面推广的方式,以及在做渠道时候如何通过内容来传递洞察的方式是很值得称道的。

    1.1K10发布于 2018-08-03
  • 来自专栏大数据文摘

    快讯 | 纽约时报爆料:FB雇人写公关稿黑谷歌苹果

    但是,小扎一直想消除这些负面影响,除了做出了一些技术改变之外,他还一直非常注重公关层面的努力。 即,找公关公司写苹果,谷歌等竞争对手的黑稿。 据纽约时报的报道,Facebook在去年就与一家总部位于华盛顿的公关公司走的非常近。 于是在2017年10月加强了与这家公关公司的关系。 该公关公司撰写的文章抨击谷歌和苹果的同时,也在一定程度上淡化了俄罗斯干预对Facebook的影响。 另外,这些文章是在NTK Network上发表的,NTK Network是该公关公司旗下媒体,其内容往往迎合政治保守派主张。 Facebook与这家公关公司之间的关系,是纽约时报揭露Facebook近几年一系列丑闻报道之一。

    64020发布于 2018-12-13
  • 来自专栏SimpleAI

    【DL笔记4】神经网络,正向传播和反向传播

    神经网络的“两个传播”: 前向传播(Forward Propagation) 前向传播就是从input,经过一层层的layer,不断计算每一层的z和a,最后得到输出y^ 的过程,计算出了y^,就可以根据它和真实值 反向传播(Backward Propagation) 反向传播就是根据损失函数L(y^,y)来反方向地计算每一层的z、a、w、b的偏导数(梯度),从而更新参数。 ? 每经过一次前向传播和反向传播之后,参数就更新一次,然后用新的参数再次循环上面的过程。这就是神经网络训练的整个过程。 三、反向传播 反向传播说白了根据根据J的公式对W和b求偏导,也就是求梯度。因为我们需要用梯度下降法来对参数进行更新,而更新就需要梯度。 进行了反向传播之后,我们就可以根据每一层的参数的梯度来更新参数了,更新了之后,重复正向、反向传播的过程,就可以不断训练学习更好的参数了。

    1.1K30发布于 2018-10-25
  • 来自专栏机器学习入门

    深度学习系列(2):前向传播和后向传播算法

    深度学习系列(2):前向传播和后向传播算法 前言 讲真,之前学吴恩达的机器学习课时,还手写实现过后向传播算法,但如今忘得也一干二净。总结两个原因:1. 理解不够透彻。2. 没有从问题的本质抓住后向传播的精髓。今天重温后向传播算法的推导,但重要的是比较前向传播和后向传播的优缺点,以及它们在神经网络中起到了什么不一般的作用,才让我们如此着迷。 简单说说吧,反向传播主要解决神经网络在训练模型时的参数更新问题。神经网络如下图: ? 反向传播算法需要解决每条边对应的权值如何更新,才能使得整个输出的【损失函数】最小。 不,离真正的反向传播推导出的公式还差那么一点点,继续看图: ? Screenshot (11).png 此时再看看完整的反向传播公式推导吧,或许就明白其中缘由了。 参考链接:反向传播算法(过程及公式推导)

    3.5K70发布于 2018-01-15
  • 来自专栏渗透云笔记

    incaseformate传播与复现

    HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\Explorer\Advanced\Folder\HideFileExt\checkedvalue 四、传播场景复现

    63620发布于 2021-02-03
  • 来自专栏LhWorld哥陪你聊算法

    【TensorFlow篇】--反向传播

    反向自动求导是 TensorFlow 实现的方案,首先,它执行图的前向阶段,从输入到输出,去计算节点 值,然后是反向阶段,从输出到输入去计算所有的偏导。

    78440发布于 2018-09-13
领券