首页 > 其他分享 >时域线性粘弹性(待完成)

时域线性粘弹性(待完成)

时间:2023-06-14 23:14:28浏览次数:28  
标签:tau infty int 粘弹性 Delta 线性 sigma gamma 时域

Boltzmann叠加原理

对于蠕变,有 \(\gamma(t)=J(t)\sigma\),其中 \(J(t)=J_g+J_d\Psi(t)\)。

截屏2023-06-14 22.29.50

假设在各个时间节点上施加一些列的 \(\Delta\sigma(\tau_i)\) 外界激励,系统的一系列响应是 \(J(t-\tau_i)\) ,相乘并累加得到下式,当间隔很小时,或者是说外加的激励是一个连续变化的值的时候,可以用积分来表示。

\[\begin{aligned} \gamma(t)&=J(t-\tau_1)\Delta\sigma(\tau_1)+J(t-\tau_2)\Delta\sigma(\tau_2)+J(t-\tau_3)\Delta\sigma(\tau_3)+\cdots\\[3ex] &=\sum_{\tau_i=-\infty}^{\tau_i=t} J(t-\tau_i)\Delta\sigma(\tau_i)\\[2ex] &=\int_{-\infty}^{\ t}J(t-\tau)d\sigma(\tau)\\[3ex] &=\int_{-\infty}^{\ t}J(t-\tau)\dfrac{d\sigma(\tau)}{d\tau}d\tau \end{aligned} \]

在推导上面的式子之后,我们需要做的就是再求解出 \(J(t-\tau)\) 的表达式即可。

对于松弛道理类似的,只不过需要注意两者的模量表示稍有不同。\(\sigma(t)=G(t)\gamma\),其中 \(G(t)=G_e+G_d\Psi(t)\)。

202306142229858 $$ \begin{aligned} \sigma(t)&=G(t-\tau_1)\Delta\gamma(\tau_1)+G(t-\tau_2)\Delta\gamma(\tau_2)+G(t-\tau_3)\Delta\gamma(\tau_3)+\cdots\\[3ex] &=\sum_{\tau_i=-\infty}^{\tau_i=t} G(t-\tau_i)\Delta\gamma(\tau_i)\\[2ex] &=\int_{-\infty}^{\ t}G(t-\tau)d\gamma(\tau)\\[3ex] &=\int_{-\infty}^{\ t}G(t-\tau)\dfrac{d\gamma(\tau)}{d\tau}d\tau \end{aligned} $$ 在推导上面的式子之后,同样对应的,我们需要做的就是再求解出 $G(t-\tau)$ 的表达式即可。这就我们所用的 $Prony$ 级数来表示的模量

标签:tau,infty,int,粘弹性,Delta,线性,sigma,gamma,时域
From: https://www.cnblogs.com/PeterRabbi/p/17481578.html

相关文章

  • (数论)判断素数(朴素,根号,埃氏筛,欧拉筛线性筛)
    //最基本求一个素数(on),(osqrt(n))#include<bits/stdc++.h>usingnamespacestd;intmain(){intn;cin>>n;for(inti=2;i<n;i++)//o(n)if(n%i==0){cout<<"no";return0;}for(i......
  • 机器学习之——机器学习中的数学(2)-线性回归,偏差、方差权衡
    前言:   距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点心得,以后会慢慢的写写这些心得。写文章是促进自己对知识认识的一个好方法,看书的时候往往不是非常细,所以有些公式、知识点什么的就一带而过,里面的一些具体意义就不容易......
  • 机器学习之——线性判别分析(LDA), 主成分分析(PCA)
    前言:    第二篇的文章中谈到,和部门老大一宁出去outing的时候,他给了我相当多的机器学习的建议,里面涉及到很多的算法的意义、学习方法等等。一宁上次给我提到,如果学习分类算法,最好从线性的入手,线性分类器最简单的就是LDA,它可以看做是简化版的SVM,如果想理解SVM这种分类器,那理解LDA......
  • 基本线性分组码与性能参数及差错控制
    本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:<https://github.com/timerring/information-theory>】或者公众号【AIShareLab】回复信息论获取。基本线性分组码与性能参数线性分组码(n,k)定义线性分组码是由(n,k)......
  • Berlekamp_Massey与常系数齐次线性递推
    Berlekamp_MasseyBM线性递推,看了这篇博客才学会的:[link]((29条消息)[学习笔记]Berlekamp-Massey算法_cz_xuyixuan的博客-CSDN博客)。这里稍微记录一下做法,符号和下表尽量精细。假设有序列\(\{a_1,a_2,\dots,a_n\}\),称序列\(\{r_1,r_2,\dots,r_m\}\)为线性递推式,当且仅当......
  • 4.3 线性回归的改进-岭回归
    1.带有L2正则化的线性回归-岭回归岭回归,其实也是一种线性回归。只不过在算法建立回归方程时候,加上正则化的限制,从而达到解决过拟合的效果2.APIsklearn.linear_model.Ridge(alpha=1.0,fit_intercept=True,solver="auto",normalize=False)具有l2正则化的线性回归alpha:正......
  • 4.1 线性模型
    1回归问题什么是回归问题   目标值---连续型的数据应用场景房价预测销售额度预测金融:贷款额度预测、利用线性回归以及系数分析因子2什么是线性回归2.1定义线性回归(Linearregression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关......
  • 小灰灰深度学习day8——线性回归(从零开始实现与简洁的实现)
    从零开始实现的代码如下:importmathimportrandom#随机梯度下降随机的权重importtimeimportnumpyasnpfromd2limporttorchasd2l#实现过的函数写在d2l包中'''加这两句是为了能画出散点图,不然会报错importosos.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"'......
  • 线性空间学习笔记(部分)
    因为线性空间的知识点多而杂,无法一一记录,因此只取一些学习中遇到困难的地方做笔记。列向量与行向量只要不特殊提及,在线性代数中研究的向量都是列向量。显然,一个列向量左乘行向量的结果是一个标量。而一个列向量左乘一个矩阵,可以看作左乘一行列向量。即:\[A\mathbfx=A\begin{b......
  • 控制系统的时域分析
    一、概念1、控制系统的性能指标:分析控制系统时,评价系统性能好坏的标准。包括动态性能和稳态性能。也就是说在系统的整个响应过程中,系统的动态性能主要是从开始到过渡过程结束的这段时间的性能,需要满足系统的动态品质要求;而系统的稳态性能从过渡过程结束后的响应中,系统的稳态......