我一直在读一本关于计算机处理器的书。我遇到了一些术语,比如时钟节拍,时钟周期和时钟速度,我发现这些术语很难理解。如果有人能用一种简单的语言来澄清这一点,我将非常感谢。提前感谢!
发布于 2017-04-27 16:10:00
计算机处理器或中央处理器的速度由时钟周期决定,该时钟周期是振荡器两个脉冲之间的时间量。一般来说,每秒的脉冲数越高,计算机处理器处理信息的速度就越快。时钟速度以赫兹为单位,通常为兆赫(MHz)或千兆赫(GHz)。例如,4 4GHz处理器每秒执行4,000,000,000个时钟周期。根据处理器的类型,计算机处理器可以在每个时钟周期执行一条或多条指令。早期的计算机处理器和较慢的处理器在每个时钟周期只能执行一条指令,但更快、更高级的处理器可以在每个时钟周期执行多条指令,从而更有效地处理数据。
和另一方面,时钟速度(有时称为时钟速率)指的是振荡器每秒产生的脉冲数,该振荡器设置处理器的节奏。时钟速度通常以MHz (兆赫,即每秒数百万个脉冲)或GHz (千兆赫兹,或每秒数十亿个脉冲)为单位测量。今天的个人电脑以几百兆赫的时钟速度运行,有些甚至超过一千兆赫兹。时钟频率由石英晶体电路决定,类似于无线电通信设备中使用的电路。
发布于 2019-11-02 23:47:12
时钟周期是振荡时钟信号的单个周期。
时钟速度、频率和频率用于描述同一事物:每秒的时钟周期数,单位为赫兹(Hz)。
令人困惑的是,时钟速度也可能指时钟周期时间,即时钟周期的长度,或时钟节拍之间的时间长度。
https://stackoverflow.com/questions/43651954
复制相似问题