大家好,我是工程师看海。
在以前的文章中我总是提到当负载电流增加时,电源的输出电压会下降,很多同学在实际项目中也会发现这个现象,有什么危害呢?为什么会有这个现象呢?
下图就是一个典型的测试波形图,下面是负载电流,上面是输出电压的变化量,可以看到当负载电流从0.1A变化到0.5A时,输出电压会跌落将近0.05V。假如这个电源正常工作时电压应该是3.3V,跌落0.05V就变成了3.25V,再假如负载的电源输入范围是3.28V~3.35V,那么3.25V<3.28V,电源将不满足负载的要求,就很可能引起系统异常甚至死机重启。如果负载电流变化慢一些,或者负载电流小一些,则输出电压的波动也会小一点。
我们使用的电源可以等效成一个理想的电压源和和一个内阻r的串联,如下图所示,
电源的输出电压Vo:
对于理想电压源而言电动势E是不变的,当输出电流Io增加时,内阻r上分担的电压Io*r也会增加,Vo就会减小,随后电源通过内部的调节网络,减小内阻r使得Vo又上升回来。反之,当Io减小时,内阻r上分担的电压Io*r也会减小,Vo就会减增加,随后电源通过内部的调节网络,增加内阻r使得Vo又上升回来。
以上就是电流增加时,输出电压会降低的一个原因。