首页 > 其他分享 >面经_操作系统

面经_操作系统

时间:2024-03-28 19:23:54浏览次数:19  
标签:操作系统 创建 面经 程序 线程 内存 进程

操作系统

线程和进程的区别、应用场景

线程(Thread)和进程(Process)是操作系统中管理和执行任务的基本单元,它们有一些重要的区别和应用场景。

  1. 线程和进程的区别:

    • 进程进程是资源调度的最基本单位。每个进程都有自己的地址空间、内存、数据栈等,是操作系统中的资源分配单位。进程之间是相互独立的,各自拥有独立的内存空间,它们之间的通信通常需要借助进程间通信(IPC)的机制。
    • 线程线程是系统调度的最基本单位。一个进程可以包含多个线程。线程共享进程的地址空间和资源,但拥有独立的执行栈。线程之间可以共享数据,并且更轻量级,创建和销毁线程的开销相对较小
  2. 应用场景:

    • 进程的应用场景
      • 当需要执行一个独立的任务时,追求稳定可以使用进程。例如,运行一个程序或服务,每个程序或服务都可以作为一个独立的进程运行。
      • 当需要保护数据或资源,防止不同任务之间相互干扰时,可以使用进程。由于进程之间拥有独立的地址空间,所以相互之间不会影响。
    • 线程的应用场景
      • 当需要并行执行多个轻量级任务,并且任务之间需要共享数据或资源时,可以使用线程。例如,GUI 应用程序中的用户界面线程和后台数据处理线程之间的交互
      • 当需要提高程序性能,充分利用多核处理器时,可以使用多线程并行处理。例如,在服务器端处理多个客户端请求时,可以为每个请求分配一个线程

总的来说,进程和线程都是用于执行任务的基本单元,它们各有优势和适用场景。在选择使用进程还是线程时,需要根据具体的需求和情况进行权衡和选择。

多线程、多进程优缺点

多线程的优点:

  1. 资源共享: 线程之间可以共享同一进程的地址空间和资源,因此数据共享更加方便快捷。
  2. 轻量级: 线程的创建和切换成本相对较低,可以更快地进行任务切换。
  3. 效率高: 线程之间的通信更加高效,可以更容易地实现并发执行和数据共享。
  4. 易于编程: 多线程编程相对于多进程编程更加简单和方便,因为线程共享同一地址空间,不需要额外的通信机制。

多线程的缺点:

  1. 共享数据竞争: 多个线程同时访问共享数据时可能会发生竞争条件和数据不一致的问题,需要额外的同步机制来解决。
  2. 死锁和饥饿: 多线程编程容易导致死锁和饥饿等并发问题,需要合理设计和管理线程的执行顺序和资源分配。
  3. 调试困难: 多线程程序的调试和排错比单线程程序更加困难,因为线程之间的交互关系复杂。

多进程的优点:

  1. 独立性: 每个进程有独立的地址空间和资源,进程之间相互隔离,互不影响。
  2. 稳定性: 一个进程崩溃不会影响其他进程的稳定性,提高了系统的稳定性和可靠性。
  3. 灵活性: 进程之间通信使用的是操作系统提供的进程间通信(IPC)机制,可以在不同的机器上运行,并且可以使用不同的编程语言实现。

多进程的缺点:

  1. 资源开销: 每个进程都有独立的地址空间和资源,创建和销毁进程的开销较大,占用更多的系统资源。
  2. 通信困难: 进程间通信(IPC)的成本较高,效率较低,需要额外的通信机制和数据传输开销。
  3. 编程复杂: 多进程编程相对于多线程编程更加复杂和困难,因为进程之间的通信和同步需要额外的操作系统支持。

综上所述,多线程和多进程各有优缺点,应根据具体的需求和场景选择合适的并发编程方式。通常情况下,多线程更适合在同一进程内进行并发编程,而多进程更适合在不同进程间进行并发编程。

多线程中各种锁(读写锁、互斥锁) 条件变量

在多线程编程中,锁(Lock)是一种同步机制,用于控制多个线程对共享资源的访问,以防止数据竞争和保护共享资源的一致性。常见的锁及机制包括互斥锁(Mutex Lock)、读写锁(Read-Write Lock)、条件变量(Condition Variable)等。下面简要介绍互斥锁和读写锁:

  1. 互斥锁(Mutex Lock)

    • 互斥锁是一种最基本的锁机制,它保证同一时刻只有一个线程能够访问共享资源
    • 当一个线程获得了互斥锁之后,其他线程试图获得该锁时会被阻塞,直到持有锁的线程释放锁为止。
    • 互斥锁通常用于保护对共享资源的互斥访问,以避免数据竞争和保护共享资源的一致性。
  2. 读写锁(Read-Write Lock)

    • 读写锁允许多个线程同时读取共享资源,但只允许一个线程写入共享资源
    • 当一个线程获取了读锁之后,其他线程也可以获取读锁,但不能获取写锁。
    • 当一个线程获取了写锁之后,其他线程无法获取读锁或写锁,直到写锁释放。
    • 读写锁适用于读操作频繁、写操作较少的场景,可以提高程序的并发性能。
  3. 条件变量(Condition Variable)

    • 条件变量是一种同步原语,用于线程间的通信,允许线程在某个条件满足时等待或者被唤醒(它并不是锁)。
    • 通常与互斥锁一起使用,以便在互斥锁保护的共享数据上进行条件等待
    • 当线程在条件变量上等待时,它会释放所持有的互斥锁,进入阻塞状态,并且允许其他线程获取互斥锁并修改共享数据。
    • 当某个线程改变了共享数据,并且触发了等待的条件时,它会通知其他线程,这些被阻塞的线程会被唤醒,重新竞争互斥锁。

    条件变量是利用线程间共享的全局变量进行同步的一种机制,条件变量是用来描述某种资源是否就绪的一种数据化描述

    条件变量主要包括两个动作

    • 一个线程等待条件变量的条件成立而被挂起
    • 另一个线程使条件成立后唤醒等待的线程

    条件变量通常需要配合互斥锁一起使用

在实际应用中,要根据具体的需求和场景选择合适的锁机制。互斥锁适用于对共享资源的互斥访问,适合写操作频繁的场景;而读写锁适用于读操作频繁、写操作较少的场景,可以提高程序的并发性能。同时,还需要注意避免死锁和饥饿等问题,确保锁的正确使用和释放。

在C++中,可以使用以下几种方式实现线程同步和上锁:

  1. std::mutex:C++标准库提供的互斥量。可以使用std::mutex及其相关函数(如lock()unlock())来实现线程的互斥访问。使用std::lock_guard可以在作用域内自动加锁和解锁,从而避免忘记解锁而导致的死锁。
#include <mutex>

std::mutex mtx;

void foo() {
    std::lock_guard<std::mutex> lock(mtx);
    // 访问临界区
}
  1. std::unique_lock:类似于std::lock_guard,但更加灵活,可以手动控制锁的加锁和解锁时机。最推荐的锁
#include <mutex>

std::mutex mtx;

void foo() {
    std::unique_lock<std::mutex> lock(mtx);
    // 访问临界区
    lock.unlock(); // 手动解锁
}
  1. std::shared_mutex(C++17引入):用于支持共享与排它性访问的互斥量。可以在不同的线程中同时读取共享资源,但在写操作时需要独占访问。
#include <shared_mutex>

std::shared_mutex mtx;

void readFoo() {
    std::shared_lock<std::shared_mutex> lock(mtx);
    // 读取共享资源
}

void writeFoo() {
    std::unique_lock<std::shared_mutex> lock(mtx);
    // 写入共享资源
}
  1. std::condition_variable:条件变量用于线程间的通信,允许线程在满足特定条件时等待或唤醒。通常与互斥量一起使用。
#include <condition_variable>

std::mutex mtx;
std::condition_variable cv;
bool dataReady = false;

void producer() {
    std::unique_lock<std::mutex> lock(mtx);
    // 生产数据
    dataReady = true;
    cv.notify_one(); // 唤醒等待的线程
}

void consumer() {
    std::unique_lock<std::mutex> lock(mtx);
    cv.wait(lock, []{ return dataReady; }); // 等待条件满足
    // 处理数据
}

这些是常见的C++上锁方式,选择合适的上锁方式取决于具体的需求和场景。

进程间通信原理和方式

进程间通信(Inter-Process Communication,IPC)是指在多道程序环境下,不同的进程之间进行数据交换和共享信息的机制和方式。IPC的实现可以通过以下几种原理和方式:

  1. 共享内存(Shared Memory)

    • 原理:多个进程共享同一块物理内存区域,可以直接读写共享的内存区域,实现高效的数据交换。
    • 方式:通过操作系统提供的共享内存机制,在进程间映射同一块物理内存,从而实现数据共享。
  2. 消息传递(Message Passing)--常用

    • 原理:进程之间通过发送和接收消息来进行通信,消息可以是固定长度的数据块,也可以是任意大小的数据流。
    • 方式:
      • 直接通信:进程直接发送消息给指定的目标进程,实现点对点的通信。
      • 间接通信:通过消息队列、邮箱等中间件来进行消息传递,可以实现多对多的通信模式。
  3. 信号量(Semaphores)--常用-:

    • 原理:使用计数器来实现对共享资源的访问控制,进程通过对信号量进行操作来实现同步和互斥。
    • 方式:通过操作系统提供的信号量机制,包括二进制信号量和计数信号量,来控制进程的访问权限。
  4. 管道(Pipes)--常用

    • 原理:一种半双工的通信方式,通过管道在两个进程之间传递数据,通常用于父子进程或者兄弟进程之间的通信。
    • 方式:有匿名管道和命名管道两种方式,匿名管道在内存中创建,命名管道则会创建一个文件来进行通信。
  5. 套接字(Sockets)

    • 原理:使用网络编程中的套接字机制来实现不同主机上进程之间的通信,通常用于网络通信。
    • 方式:可以基于TCP或者UDP协议来建立套接字连接,实现进程之间的数据传输。

每种IPC方式都有其适用的场景和特点,选择合适的方式取决于具体的需求和应用场景。

线程间通信的方法

  1. 互斥锁(Mutex): 互斥锁用于保护共享资源,确保在同一时间只有一个线程可以访问共享资源。线程在访问共享资源前先获取互斥锁,访问完后再释放互斥锁。
  2. 条件变量(Condition Variable): 条件变量用于在线程之间进行等待和通知,允许线程在特定条件下等待并在条件发生变化时被唤醒。可以和互斥锁一起使用,实现更复杂的同步机制。
  3. 信号量(Semaphore): 信号量可以用于控制同时访问共享资源的线程数量,类似于互斥锁,但信号量允许多个线程同时访问共享资源。
  4. 屏障(Barrier): 屏障用于同步多个线程的执行,等待所有线程到达屏障后才能继续执行。可以使用 pthread_barrier_init()pthread_barrier_wait()pthread_barrier_destroy() 等函数来创建和操作屏障。
  5. 线程间队列(Thread-safe Queue): 可以使用线程安全的队列来实现线程之间的数据传递,如 std::queue 结合互斥锁或条件变量来实现。

进程空间模型

  1. 代码段(Text Segment): 代码段存储了进程的可执行指令,即程序的机器语言代码。这部分内容是只读的,并且在进程创建时就已经被加载到内存中,通常在内存中的低地址位置。

  2. 数据段(Data Segment): 数据段包括了进程的全局变量和静态变量,以及显式初始化的静态变量。这部分内容在程序运行时分配并且可以读写,通常在内存中的低地址位置。

  3. 堆(Heap): 堆是动态分配内存的区域,用于存储动态分配的内存块(如使用 newmalloc 等函数分配的内存)。堆的大小可以在程序运行时动态增长或缩小,通常位于数据段的上方,向高地址方向增长。

  4. 栈(Stack): 栈用于存储函数的局部变量、函数参数、返回地址以及函数调用的上下文信息。每个线程都有自己的栈空间,栈的大小在程序运行时是固定的,通常位于高地址位置,向低地址方向增长。

  5. 文件描述符表(File Descriptor Table): 文件描述符表用于存储进程打开的文件描述符,包括标准输入、标准输出、标准错误以及其他文件。这部分内容通常位于进程的控制块中。

  6. 进程控制块(Process Control Block,PCB): 进程控制块存储了进程的运行状态和控制信息,包括进程标识符、程序计数器、堆栈指针、寄存器值、进程状态、优先级等信息。

这些部分共同构成了进程的内存空间模型,不同的部分具有不同的作用和特点,同时也需要操作系统进行管理和调度。理解进程的空间模型有助于我们更好地理解进程的运行机制和内存管理。

进程上下文、中断上下文

进程上下文(Process Context):
进程上下文是指操作系统中正在运行的进程的当前状态和环境。它包括了以下内容:

  • 进程的程序计数器(Program Counter,PC):指向当前正在执行的指令的地址。
  • 进程的堆栈指针(Stack Pointer,SP):指向当前进程的堆栈顶部的地址。
  • 进程的寄存器值:保存了进程的当前状态,包括了通用寄存器、程序状态字(PSW)等。
  • 进程的虚拟地址空间:进程所占用的内存空间,包括了代码段、数据段、堆、栈等。
  • 其他相关的进程控制信息:如进程的进程标识符(PID)、进程状态、进程权限等。

中断上下文(Interrupt Context):
中断上下文是指当发生硬件中断或者软件中断时,CPU从用户态(或内核态)切换到内核态,执行相应的中断处理程序所处的状态和环境。它包括了以下内容:

  • 中断处理程序的程序计数器(PC):指向中断处理程序的入口地址。
  • 中断处理程序的堆栈指针(SP):指向中断处理程序的堆栈顶部的地址。
  • 中断处理程序所需的寄存器值:根据中断类型和处理程序的需要,可能需要保存或者恢复寄存器的值。
  • 中断上下文通常保存在内核栈中,以确保在处理中断时不会影响到当前正在运行的进程的堆栈和状态。

总的来说,进程上下文和中断上下文都是指当前系统或程序执行的状态和环境,但是它们的内容和作用有所不同,分别用于描述进程的执行环境和中断处理的环境。

进程最多可以创建多少线程、与什么有关

一个进程可以创建的线程数量取决于多个因素,主要包括以下几点:

  1. 操作系统限制: 操作系统对于一个进程能够创建的线程数量通常有一定的限制。这个限制可能是硬件或软件层面的,例如操作系统的内核参数设置、硬件资源限制等。

  2. 系统资源限制: 创建线程会消耗系统资源,包括了内存、CPU时间片、线程栈空间等。因此,系统资源的可用性也会影响一个进程能够创建的线程数量。

  3. 线程栈空间: 每个线程都需要分配一定大小的栈空间,用于存储函数调用和局部变量等。因此,线程栈空间的大小也会限制一个进程能够创建的线程数量。如果栈空间设置过大,可能会导致进程能够创建的线程数量减少;如果栈空间设置过小,可能会导致栈溢出等问题。

  4. 应用程序设计: 应用程序的设计也会影响一个进程能够创建的线程数量。例如,如果应用程序需要创建大量的线程来处理并发任务,那么可能需要对线程的创建和销毁进行合理管理,避免资源浪费和性能下降。

具体:

(1)进程的虚拟内存空间大小和线程的栈空间大小
32 位系统的内核空间占用 1G ,用户空间是3G;如果一个线程需要占用8M栈空间,理论上可以创建 384 个(3G/8M)的线程。
64 位系统的内核空间和用户空间都是128T,分别占据整个内存空间的最高和最低处,中间部分是未定义的;如果一个线程需占用8M栈空间,理论上可以创建 128T/8M个线程,也就是 1600多万个线程。

(2)一些系统参数限制,比如:
/proc/sys/kernel/threads-max,系统支持的最大线程数,默认值是 14553;
/proc/sys/kernel/pid_max,表示PID的最大值,这个值会限制线程数量,默认值是 32768;
/proc/sys/vm/max_map_count,用于控制一个进程可以拥有的最大内存映射区域数量,这个值会限制线程数量,默认值是 65530。

线程并发、互斥、安全、同步、异步、阻塞和非阻塞

并发:在操作系统中,同个处理机上有多个程序同时运行即并发,在微观角度还可以细分到并行和并发区别,这里不扩展

互斥: 任何时刻,互斥保证有且只有一个执行流进入临界区访问临界资源,通常对临界资源起保护作用,一般用互斥锁、信号量等来保障互斥。

安全:多个线程并发同一段代码时不会出现不同的结果,使得资源的状态保持一致,并且不会导致数据损坏或不一致

同步:保证数据安全的前提下,让线程能够按照某种特定的顺序访问临界资源以确保数据的一致性和程序的正确性,从而有效避免竞争、饥饿问题,这就叫做同步。
同步应该理解成协同、协助、互相配合。线程同步是指多线程通过特定的设置(如互斥量,事件对象,临界区)来控制线程之间的执行顺序(即所谓的同步)也可以说是在线程之间通过同步建立起执行顺序的关系,一般可以采用事件、信号量机制来保证同步

异步:异步和同步是相对的,异步操作允许程序在等待一个长时间操作(如网络请求或磁盘I/O)完成时继续处理其他事务。异步操作通常通过回调函数、事件、通知或其他机制来实现,这些机制在操作完成时通知程序。

阻塞:阻塞是指线程在等待某个事件(如I/O操作完成、获取锁、等待信号量等)时被挂起,直到该事件满足。在阻塞状态下,线程不执行任何代码,直到它被操作系统唤醒。阻塞是同步操作的一个副作用,可能导致性能问题,特别是在高并发环境中。

非阻塞:阻塞操作是指线程在执行任务时,不会因为等待某个事件而停止。非阻塞操作允许线程在等待的同时继续执行其他任务,或者在无法立即完成任务时返回。这通常通过异步I/O、事件驱动模型或回调函数来实现

Q:线程同步与阻塞的关系?同步一定阻塞吗?阻塞一定同步吗?

A:同步是个过程,阻塞是线程的一种状态。多个线程操作共享变量时可能会出现竞争。这时需要同步来防止两个以上的线程同时进入临界区,在这个过程中,后进入临界区的线程将阻塞,等待先进入的线程走出临界区。
线程同步不一定发生阻塞,例如,如果一个线程获取了一个互斥锁,而没有其他线程正在等待这个锁,那么这个线程就不会被阻塞。
同样,阻塞也不一定因为同步,例如I/O操作(如文件读写、网络通信)或等待某个事件的发生。这些阻塞情况并不一定涉及到线程间的同步。

用户级线程和内核级线程

用户级线程(User-Level Threads, ULTs)和内核级线程(Kernel-Level Threads, KLTs)是操作系统中实现多线程的两种不同方法。它们在管理方式、上下文切换、调度和执行效率等方面有显著的区别。

用户级线程(ULTs)

  1. 管理

    • 用户级线程由用户空间的线程库(如 POSIX 线程库,Pthreads)管理,不直接由操作系统内核管理。
    • 线程的创建、调度、同步和终止等操作都在用户空间进行,不涉及系统调用。
  2. 上下文切换

    • 用户级线程的上下文切换由线程库在用户空间实现,通常比内核级线程的上下文切换更快,因为它不需要切换到内核模式。
  3. 调度

    • 用户级线程的调度完全由线程库控制,可能不支持抢占式调度,这可能导致线程饥饿或优先级反转问题。
  4. 执行效率

    • 用户级线程通常更轻量级,创建和销毁的开销较小,适合于需要大量线程的场景。
  5. 系统资源

    • 用户级线程不直接映射到内核资源,因此它们不能直接利用多核处理器的优势。

内核级线程(KLTs)

  1. 管理

    • 内核级线程由操作系统内核管理,创建、调度、同步和终止等操作都通过系统调用来完成。
  2. 上下文切换

    • 内核级线程的上下文切换涉及到从用户模式切换到内核模式,通常比用户级线程的上下文切换慢。
  3. 调度

    • 内核级线程支持抢占式调度,可以更好地响应高优先级的线程,避免线程饥饿问题。
  4. 执行效率

    • 内核级线程的创建和销毁开销较大,但在多核处理器上可以充分利用多核优势,进行真正的并行执行。
  5. 系统资源

    • 每个内核级线程都直接映射到操作系统的资源,如 CPU 时间片和内存资源。

区别总结

  • 管理层面:用户级线程在用户空间管理,内核级线程由操作系统内核管理。
  • 上下文切换:用户级线程的上下文切换更快,内核级线程的上下文切换涉及内核态切换。
  • 调度策略:用户级线程可能不支持抢占式调度,而内核级线程通常支持。
  • 执行效率:用户级线程轻量级,适合大量线程;内核级线程适合并行处理,但开销较大。
  • 系统资源利用:用户级线程不直接映射到系统资源,内核级线程可以利用多核处理器。

在实际应用中,现代操作系统通常提供了一种混合模型,结合了用户级线程和内核级线程的优点。例如,许多操作系统允许用户级线程与内核级线程进行映射,使得用户级线程可以利用多核处理器的优势,同时保持轻量级的特性。

线程池和线程开销

线程池(Thread Pool)是一种管理线程的机制,它用于减少创建和销毁线程的开销,提高资源利用率,以及简化线程管理。线程池通过预先创建一组线程,并将它们放入一个池中,以便在需要执行任务时重用这些线程。以下是线程池的主要特点和线程开销的相关内容。

线程池的特点:

  1. 线程重用

    • 线程池维护一组活跃的线程,当有任务需要执行时,线程池会从池中分配一个线程来执行任务,而不是每次都创建新的线程。
  2. 资源管理

    • 线程池允许开发者控制线程的数量,避免系统中存在过多的线程,从而减少资源消耗和上下文切换的开销。
  3. 任务调度

    • 线程池通常包含一个任务队列,新提交的任务会被放入队列中,等待可用的线程执行。
  4. 提高效率

    • 线程池可以提高程序的响应速度,因为线程的创建和销毁是一个相对耗时的过程。通过重用线程,可以减少这些开销。
  5. 简化编程模型

    • 使用线程池可以简化并发编程模型,开发者不需要管理每个线程的生命周期,只需提交任务即可。

线程开销:

  1. 创建和销毁开销

    • 创建线程涉及到分配内存、初始化线程上下文等操作,销毁线程则需要清理这些资源。线程池通过重用线程来减少这些开销。
  2. 上下文切换开销

    • 当操作系统在多个线程之间切换时,需要保存当前线程的状态并恢复另一个线程的状态,这个过程称为上下文切换。线程池通过减少线程的创建和销毁来降低上下文切换的频率。
  3. 资源竞争

    • 在多线程环境中,线程可能会竞争访问共享资源,如内存、文件句柄等。线程池通过限制线程数量,可以减少这种竞争。

线程池的实现:

线程池的实现通常包括以下几个部分:

  • 线程集合:一组已经创建的线程,它们可以执行任务。
  • 任务队列:一个用于存储待执行任务的队列。
  • 同步机制:用于控制线程访问任务队列和执行任务的同步机制,如互斥锁、信号量等。
  • 线程管理策略:决定何时创建新线程、何时销毁线程以及如何分配任务的策略。

线程池在许多并发框架和库中都有实现,如 Java 的 ExecutorService、C++ 的 std::threadstd::async、Python 的 concurrent.futures.ThreadPoolExecutor 等。正确使用线程池可以显著提高程序的性能和稳定性。

内存池

内存池是一种预先分配一定数量的内存块,并在需要时从中分配和释放内存的技术。它通常用于提高内存分配和释放的效率,并且可以减少内存碎片化。

内存池的主要优点和特点包括:

  1. 减少内存碎片化:内存池预先分配了一定数量的内存块,并在需要时直接从这些内存块中分配内存,而不是每次都向系统请求新的内存。这样可以减少内存碎片化,提高内存利用率。

  2. 提高内存分配效率:由于内存池中的内存块已经预先分配好,并且是连续的,因此可以在 O(1) 的时间复杂度内完成内存分配操作,而不需要像动态内存分配器那样进行复杂的内存搜索和管理。

  3. 减少内存分配和释放的系统调用:通过使用内存池,可以减少向操作系统请求内存的次数,从而降低系统调用的开销,提高程序的性能

  4. 提高内存访问效率:内存池中的内存块通常是连续的,这样可以提高内存访问的局部性,从而提高内存访问效率

内存池可以用于各种应用场景,特别是在需要频繁分配和释放内存的情况下,例如网络服务器、数据库系统、图形渲染引擎等。常见的内存池实现包括固定大小内存池、动态大小内存池、线程局部内存池等。不同的内存池实现可以根据具体的应用需求和性能要求进行选择和优化。

内存管理

操作系统中的内存管理是指操作系统如何管理计算机系统中的内存资源,以便为进程提供必要的内存空间,并在需要时进行分配和释放。内存管理的主要目标包括有效地利用内存资源、提供对内存的保护和共享、实现虚拟内存和提高系统的性能等。

以下是操作系统中内存管理的主要内容和技术:

  1. 内存分配与释放

    • 内存分配是指为进程分配所需的内存空间,以便进程可以执行其任务。常见的内存分配算法包括首次适应、最佳适应和最坏适应等。
    • 内存释放是指当进程不再需要内存空间时,将其所占用的内存返回给系统,以便其他进程使用。
  2. 内存保护

    • 内存保护是指操作系统通过硬件或软件机制,防止进程对未分配给它的内存空间进行访问,以及防止进程相互干扰。
    • 常见的内存保护机制包括使用基址寄存器和界限寄存器、分页和分段等技术。
  3. 地址映射

    • 地址映射是指将逻辑地址(由进程使用)映射到物理地址(实际的内存地址)的过程。操作系统负责管理这种映射关系,以实现进程对内存的访问。
    • 虚拟内存技术是一种常见的地址映射技术,它通过将部分进程的内存存储在磁盘上,从而扩展了系统可用的内存空间。
  4. 内存管理单元(MMU)

    • 内存管理单元是一种硬件设备,用于执行地址映射和内存保护等功能。MMU通过将逻辑地址转换为物理地址,并进行相应的访问控制,来实现操作系统的内存管理策略。
  5. 页面置换

    • 页面置换是指当物理内存空间不足时,操作系统通过将部分内存页面换出到磁盘上,并将需要的页面换入到内存中,以满足进程的内存需求。
    • 常见的页面置换算法包括最近最少使用(LRU)、先进先出(FIFO)和时钟(Clock)算法等。
  6. 内存碎片整理

    • 内存碎片是指分散在内存中的一些小块未使用的内存空间。内存碎片整理是指将这些碎片整合成较大的连续空闲内存块,以便更有效地分配给进程使用。

通过这些内存管理技术,操作系统能够有效地管理系统的内存资源,提高系统的性能和稳定性,同时为进程提供必要的内存空间,从而实现高效的计算机系统运行。

内存泄漏

内存泄漏指的是在程序运行过程中,由于程序未正确释放已经分配的内存空间,导致这部分内存无法被再次使用,从而造成系统内存资源的浪费。内存泄漏通常发生在动态内存分配的情况下,比如使用malloc()new等分配内存空间而没有相应的free()delete来释放内存。

内存泄漏可能会导致以下问题:

  1. 内存资源耗尽:如果程序长时间运行并持续发生内存泄漏,最终会导致系统内存资源耗尽,从而影响系统的稳定性和性能。

  2. 程序性能下降:内存泄漏会使得程序占用的内存越来越多,导致系统频繁进行内存交换或页面置换,从而降低程序的运行速度和响应性能

  3. 系统崩溃:如果内存泄漏严重,使得系统内存资源枯竭,可能导致系统崩溃或进程异常退出,造成数据丢失或服务中断。

为了避免内存泄漏,开发人员可以采取以下措施:

  • 谨慎使用动态内存分配函数:在使用malloc()new等函数分配内存时,一定要确保程序的其他部分会及时释放这些内存,避免出现内存泄漏。

  • 使用智能指针:C++中的智能指针(如std::unique_ptrstd::shared_ptr等)可以自动管理内存的释放,从而避免手动释放内存时出现遗漏的情况。

  • 定期检查内存使用情况:开发人员可以使用内存分析工具(如Valgrind、AddressSanitizer等)来检查程序中是否存在内存泄漏问题,并及时进行修复。

  • 养成良好的编程习惯:编写代码时应该养成良好的习惯,及时释放不再使用的内存,避免出现内存泄漏的情况。

如果频繁进行内存的分配释放

频繁进行内存的分配和释放可能会导致以下问题:

  1. 性能问题:频繁的内存分配和释放会增加系统调用的开销,例如malloc()free()函数的调用会消耗一定的时间,影响程序的性能。特别是在多线程环境下,频繁的内存分配和释放可能导致线程竞争和锁争用,进一步降低程序的性能

  2. 内存碎片问题:频繁的内存分配和释放可能导致内存碎片的产生,即大量的小块内存空间分散存放在内存中,无法被充分利用。这会增加内存分配时的搜索时间,并可能导致内存分配失败,进而影响程序的正常运行。

  3. 内存泄漏风险:频繁进行内存的分配和释放,特别是在复杂的程序中,容易出现内存泄漏的问题。由于内存的分配和释放不当,可能导致程序中存在无法被回收的内存块,最终导致内存泄漏。

为了避免频繁进行内存的分配和释放,可以考虑以下优化策略:

  • 内存池:预先分配一块较大的内存空间,然后根据需要从内存池中分配内存,而不是频繁地调用系统函数进行内存分配和释放。内存池可以减少系统调用的开销,并减少内存碎片的产生。(推荐

  • 对象池:对于需要频繁创建和销毁的对象,可以使用对象池来重复利用已经分配的对象,而不是频繁地创建和销毁对象。对象池可以减少内存分配和释放的次数,提高程序的性能。

  • 缓存:对于一些需要频繁访问的数据,可以将其缓存在内存中,而不是每次都从磁盘或网络中读取。缓存可以减少IO操作的次数,提高程序的响应速度。

  • 使用高效的内存管理工具:使用高效的内存管理工具(如内存池、对象池等)来优化内存的分配和释放过程,减少系统调用的开销,并提高程序的性能。

如果频繁分配释放的内存很大(>128k)

如果频繁分配释放的内存很大(大于128KB),可以考虑以下优化策略:

  1. 使用内存池:预先分配一块较大的内存空间作为内存池,然后根据需要从内存池中分配内存。内存池可以减少频繁的系统调用,提高内存分配和释放的效率。

  2. 增加内存分配的粒度:对于大内存分配,可以增加内存分配的粒度,例如以MB为单位进行分配,而不是以字节为单位进行分配。这样可以减少系统调用的次数,并降低内存碎片的产生。

  3. 延迟释放:如果内存的生命周期比较短暂,可以考虑延迟释放内存。即将内存放入一个缓冲区,在缓冲区达到一定大小或者一定时间间隔后再进行释放,而不是每次都立即释放内存。

  4. 优化算法和数据结构:对于需要频繁分配释放内存的算法和数据结构,可以考虑优化其设计,减少内存的分配和释放次数。例如使用复用对象、减少临时对象的创建等方式来降低内存的消耗。

  5. 使用内存映射文件:对于需要频繁读写大量数据的场景,可以考虑使用内存映射文件来代替传统的内存分配和释放操作。内存映射文件可以将文件直接映射到内存中,减少IO操作,提高数据访问的速度。

  6. 分析内存使用情况:定期分析内存使用情况,查找内存使用过多或者内存泄漏的地方,及时进行优化和调整。可以使用内存分析工具来监控程序的内存使用情况,帮助发现和解决内存相关的问题。

虚拟内存

虚拟内存是操作系统提供的一种技术,它使得每个运行的程序都能够访问超出物理内存大小的地址空间。在虚拟内存的概念中,每个程序被分配了一块连续的虚拟地址空间,这个地址空间可以比实际的物理内存大得多。

虚拟内存的实现依赖于硬件和操作系统的支持。它的基本原理是将物理内存和硬盘空间组合起来,形成一个统一的地址空间。当程序访问虚拟内存中的某个地址时,操作系统会将这个虚拟地址映射到物理内存中的一个地址,如果所需的数据不在物理内存中,则会将其从硬盘读取到物理内存中。这个过程被称为页面调度(paging)。

虚拟内存的主要优势包括:

  1. 更大的地址空间:每个程序都可以拥有更大的地址空间,不受物理内存大小的限制。这使得程序能够处理更大的数据集和执行更复杂的任务。

  2. 更高的内存利用率:虚拟内存允许操作系统将内存中的数据存储到硬盘上,从而释放出物理内存供其他程序使用。这样可以提高系统的内存利用率,并允许同时运行更多的程序。

  3. 更好的内存保护:虚拟内存可以为每个程序提供独立的地址空间,使得不同程序之间的内存不会相互干扰。同时,操作系统可以使用虚拟内存来实现内存保护机制,防止程序访问未分配的内存区域或者其他程序的内存空间。

虚拟内存为程序运行时额外需要的空间提供了补充的机制,具体包括:

  1. 程序代码和数据:虚拟内存中包含了程序的代码和数据,这些数据在程序运行时被加载到物理内存中供CPU执行。

  2. 堆和栈:每个程序都有自己的堆和栈空间,用于动态内存分配和函数调用。堆空间用于存储程序运行时动态分配的内存,而栈空间用于存储函数调用时的局部变量和函数调用信息。

  3. 内核空间:虚拟内存中的一部分被保留给操作系统使用,用于存储内核数据结构和内核代码。这部分空间通常对用户程序是不可见的,只有操作系统可以访问和管理。

分段和分页的区别

分段(Segmentation)和分页(Paging)是操作系统中常用的两种内存管理技术,它们都用于将程序的地址空间划分为更小的单元,有效管理程序的地址空间,提高内存利用率,简化地址转换和管理,并支持对不同类型的程序和数据结构进行灵活的存储和访问。

具体而言,它们的意义包括:

  1. 内存管理:分段和分页可以帮助操作系统有效地管理物理内存,减少碎片,提高内存利用率。通过将程序的地址空间划分为较小的单元,可以更灵活地分配和释放内存。
  2. 地址转换:分段和分页机制简化了地址转换过程。通过维护段表和页表,可以快速将程序的逻辑地址转换为物理地址,从而实现程序的正确执行。
  3. 支持虚拟内存分段和分页是实现虚拟内存的基础。它们允许操作系统将程序的虚拟地址空间映射到物理内存中,从而使得程序可以访问比物理内存更大的地址空间。
  4. 程序的灵活性:分段和分页允许程序的地址空间以不同的方式进行划分和管理,以满足不同类型程序和数据结构的需求。例如,分段适合不规则大小的数据结构,而分页适合固定大小的数据结构

总的来说,分段和分页的意义在于为操作系统提供了灵活而高效的内存管理机制,使得程序可以更有效地利用系统资源,提高运行效率和性能。

但它们的实现方式和应用场景有所不同。

  1. 分段(Segmentation)

    • 划分方式:将程序的地址空间划分为若干个逻辑段,每个段代表程序中的一个逻辑单元,如代码段、数据段等。
    • 逻辑结构每个段的大小不一定相同,且段的大小可以动态变化。每个段都有自己的起始地址和长度。
    • 地址映射:地址由两部分组成,即段号和段内偏移量。段号用于定位所需的段,而段内偏移量用于定位段内的具体地址。
    • 优点:可以灵活地管理不同逻辑单元的大小,适用于程序的逻辑结构不规则的情况。
    • 缺点:容易产生外部碎片,即段之间的空闲空间无法被充分利用。
  2. 分页(Paging)

    • 划分方式:将程序的地址空间划分为大小相等的页,而物理内存则被划分为大小相等的页框(Frame)。
    • 逻辑结构每个页的大小固定,通常为2的幂次方,如4KB或8KB。页框的大小也与页相同。
    • 地址映射:地址由两部分组成,即页号和页内偏移量。页号用于定位所需的页,而页内偏移量用于定位页内的具体地址。
    • 优点:能够有效地减少外部碎片,提高内存的利用率。同时,由于页大小固定,简化了地址转换和管理。
    • 缺点:可能会产生内部碎片,即每个页中的未被使用的部分无法被利用。

总的来说,分段和分页都是为了解决内存管理中的碎片问题,但它们的划分方式、逻辑结构和地址映射方式有所不同,适用于不同的场景和应用需求。

堆和栈的区别

堆和栈是计算机内存中两个重要的区域,它们在内存管理和使用方式上有很大的区别:

  1. 堆(Heap)

    • 堆是由操作系统动态分配的内存空间,用于存储程序运行时动态分配的数据,如对象、数组等。
    • 堆的内存分配由程序员控制,通过newmalloc等动态分配内存的方式在堆上分配内存。
    • 堆的内存分配和释放通常较慢,因为需要操作系统的内存管理器进行分配和释放,并且容易产生内存碎片
    • 堆的生存期由程序员控制,可以手动释放分配的内存,但如果忘记释放会导致内存泄漏。
  2. 栈(Stack)

    • 栈是一种有限空间,由操作系统自动管理的内存区域,用于存储函数调用时的局部变量、函数参数、返回地址等。
    • 栈的内存分配和释放由编译器自动完成,函数调用时会在栈上分配一块空间,函数返回时会自动释放这块空间。
    • 栈的内存分配和释放速度较快,因为是通过简单的栈指针移动来实现的。
    • 栈的生存期由程序的执行流程决定,当函数执行完毕时,栈上的数据会自动销毁。

在什么情况下会往堆里放数据取决于数据的生命周期和大小:

  • 当需要存储动态分配内存的数据,且该数据的生命周期超出了当前作用域,或者数据的大小无法确定时,就需要往堆上分配内存。比如,创建动态大小的数组、对象等。
  • 当需要在程序运行时动态创建大量对象,而栈的空间有限时,就需要往堆上分配内存。在这种情况下,堆上的内存可以根据需要动态扩展,而栈的大小是固定的。

总的来说,堆和栈的选择取决于数据的生命周期、大小以及程序的需求。

堆栈溢出

堆栈溢出是指程序在执行过程中使用了过多的栈空间,导致栈内存溢出。这通常发生在递归调用层次过深或者局部变量过多的情况下。堆栈溢出可能会导致程序崩溃或者异常退出。

处理堆栈溢出的方法包括:

  1. 优化递归算法:如果是递归调用导致的堆栈溢出,可以考虑优化算法,减少递归深度,或者使用非递归方式实现相同的功能。(法二

  2. 增加栈大小:可以通过修改编译器或者操作系统的配置,增加程序的栈大小。但是这种方法并不是通用的解决方案,因为栈的大小是有限制的,过大的栈大小可能会影响系统的稳定性。

  3. 减少局部变量的使用:尽量避免在函数中定义过多的局部变量,可以考虑将一部分局部变量改为全局变量或者静态变量。

  4. 使用动态内存分配:将部分数据从栈上移动到堆上,使用动态内存分配函数(如malloccallocrealloc等)来分配内存,可以减少对栈空间的占用。(法一

  5. 分析栈溢出原因:定位程序中导致栈溢出的具体原因,可以使用调试工具和内存分析工具来定位问题,并进行相应的优化和调整。

  6. 使用栈保护技术:一些操作系统和编译器提供了栈保护技术,可以检测栈溢出并采取相应的措施,如触发异常或者自动扩展栈空间等。

父进程、子进程关系及区别

父进程(Parent Process):

  • 父进程是在创建子进程时产生的原始进程。
  • 父进程通常是调用 fork() 系统调用来创建子进程的进程。
  • 父进程在子进程创建后继续执行,并且可以通过子进程的进程标识符(PID)来管理和控制子进程。
  • 父进程可以等待子进程结束,收集子进程的退出状态,或者向子进程发送信号来控制其行为。

子进程(Child Process):

  • 子进程是由父进程通过 fork() 系统调用创建的新进程。
  • 子进程是父进程的副本,包括进程的代码、数据、堆栈和其他资源
  • 子进程通常继承了父进程的环境和状态,但是有自己唯一的进程标识符(PID)
  • 子进程可以继续执行父进程的任务,也可以通过 exec() 系统调用加载新的程序映像,从而执行不同的任务

父进程和子进程的关系:

  • 父进程和子进程之间是一种典型的父子关系,类似于现实生活中的家庭关系。
  • 子进程的创建是由父进程发起的,并且在子进程创建后,父子进程之间存在特殊的关联和交互。
  • 父进程通常会监控和管理子进程的行为,例如等待子进程的结束状态、发送信号给子进程等。

父进程和子进程的区别:

  1. 创建方式: 父进程通过 fork() 系统调用来创建子进程。
  2. PID: 父进程和子进程拥有不同的进程标识符(PID),可以通过 PID 来区分它们。
  3. 资源: 子进程是父进程的副本,但它们有各自独立的内存空间和资源。
  4. 行为: 父进程和子进程可以有不同的行为,例如父进程可以继续执行原来的任务,而子进程可以执行新的任务。

总的来说,父进程和子进程之间有着特殊的关联和交互,它们通常是协作完成任务的,而且在多进程编程中扮演着重要的角色。

孤儿进程、僵尸进程、守护进程

在操作系统中,孤儿进程(Orphan Process)、僵尸进程(Zombie Process)和守护进程(Daemon Process)是描述进程状态和行为的术语。

  1. 孤儿进程(Orphan Process)

    孤儿进程是指在其父进程终止后仍然存在的子进程。在这种情况下,子进程失去了父进程的控制,但仍然在运行。操作系统通常会为孤儿进程分配一个特殊的进程(如init进程)作为其新的父进程,以确保子进程在终止时能够得到适当的处理。在Unix和Linux系统中,init进程(PID为1)会接管孤儿进程,并在它们终止时执行清理工作

  2. 僵尸进程(Zombie Process)

    僵尸进程是指已经执行完毕(终止)但仍然保留在进程表中的进程。这些进程的进程描述符、程序计数器、堆栈等信息仍然存在,但它们不再执行任何代码。僵尸进程通常出现在子进程比父进程先终止的情况下,父进程没有及时调用wait()系统调用来回收子进程的资源。僵尸进程不占用CPU资源,但会占用进程表的条目,可能导致资源泄露。通常,父进程需要通过wait()waitpid()系统调用来清理僵尸进程。

  3. 守护进程(Daemon Process)

    守护进程是一种在后台运行的特殊进程,它们通常在系统启动时启动,并在前台应用程序退出后继续运行。守护进程用于执行系统级别的任务,如日志记录、网络服务、硬件控制等。守护进程通常不与任何终端(tty)关联,它们在系统启动时由init进程创建,并在系统关闭时由init进程终止。守护进程的一个重要特性是它们可以长时间运行,并且通常具有较高的权限,以便执行需要特权的操作

孤儿进程和僵尸进程是进程生命周期中的特殊状态,而守护进程是一类具有特定行为和用途的进程。操作系统提供了相应的机制来管理和处理这些进程,以确保系统的稳定性和资源的有效利用。

如何创建守护进程

守护进程是没有终端的进程, 运行在后台, 常在系统引导时启动。

  1. 调用umask设置进程创建文件的权限屏蔽字(umask), 便于守护进程创建文件
    umask通常设为0, 如果调用库函数创建文件, 可设置为007
  2. 调用fork, 父进程exit
    因为要调用setsid创建会话, 需要确保调用进程(子进程)不是进程组组长, fork子进程可以确保这点.
    PS:不确定程序以何种方式启动,有可能是进程组组长,也有可能不是。
  3. 调用setsid创建新会话
    子进程调用setsid, 成为新会话首进程, 新进程组组长, 断开终端连接。
    PS:对进程组组长调用setsid,会调用失败,返回-1,errno被设置。因此,必须先通过fork+父进程exit,这样子进程会成为孤儿进程,被init收养,从而确保子进程不是进程组长。
  4. 再次调用fork, 父进程exit(可选)
    非必须, 主要是为了确保进程无法通过open /dev/tty 再次获得终端, 因为调用open时, 系统会默认为会话首进程创建控制终端。
  5. 调用chdir, 将当前工作目录更改为根目录
    守护进程一般长期存在, 守护进程存在时, 无法卸载工作目录. 为避免这种情况, 更改当前工作目录为根目录("/").
  6. 调用close, 关闭所有不需要的文件描述符
    open_max, getrlimit, sysconf(_SC_OPEN_MAX) 这3个函数都可以获得文件描述符最高值
  7. 打开/dev/null文件, 让文件描述符0,1,2指向该文件
    可以有效防止产生意外效果

概括一下:

创建守护进程(Daemon Process)通常涉及以下几个步骤:

  1. 创建新的会话
    守护进程需要脱离终端,因此它们通常会创建一个新的会话。在Unix系统中,可以通过setsid()系统调用来创建一个新的会话。

  2. 脱离终端
    守护进程需要与任何终端脱离关联。这可以通过调用fork()创建一个子进程,然后子进程调用setsid()来实现。父进程可以退出,而子进程继续作为守护进程运行。

  3. 关闭文件描述符
    守护进程应该关闭所有不必要的文件描述符,特别是那些继承自父进程的。这通常包括标准输入(stdin)、标准输出(stdout)和标准错误(stderr)。可以使用close()系统调用来关闭这些文件描述符。

  4. 改变工作目录
    守护进程通常需要改变其工作目录到一个固定的目录,如//tmp。这可以通过chdir()系统调用来实现。

  5. 设置文件权限掩码
    守护进程可能会创建文件或目录,因此需要设置一个合适的文件权限掩码,以防止其他用户访问这些文件。可以使用umask()系统调用来设置。

  6. 处理信号
    守护进程可能需要处理特定的信号,如SIGHUPSIGINTSIGTERM等。这可以通过signal()sigaction()系统调用来实现。

  7. 进入主循环
    守护进程通常包含一个主循环,用于执行其核心功能,如监控、响应事件或处理数据。

以下是一个简单的C语言示例,展示了如何创建一个守护进程:

#include <stdio.h>
#include <stdlib.h>
#include <unistd.h>
#include <sys/types.h>
#include <signal.h>

void sig_handler(int signum) {
    // 处理信号
}

int main() {
    // 创建新的会话并脱离终端
    pid_t pid = fork();
    if (pid < 0) {
        perror("fork");
        exit(EXIT_FAILURE);
    } else if (pid > 0) {
        // 父进程退出
        exit(EXIT_SUCCESS);
    }

    // 设置新的会话
    if (setsid() < 0) {
        perror("setsid");
        exit(EXIT_FAILURE);
    }

    // 关闭标准文件描述符
    close(STDIN_FILENO);
    close(STDOUT_FILENO);
    close(STDERR_FILENO);

    // 改变工作目录
    chdir("/");

    // 设置文件权限掩码
    umask(0);

    // 注册信号处理函数
    signal(SIGHUP, sig_handler);
    signal(SIGINT, sig_handler);
    signal(SIGTERM, sig_handler);

    // 主循环
    while (1) {
        // 执行守护进程的任务
    }

    return 0;
}

这个示例仅用于说明如何创建守护进程的基本步骤,实际的守护进程可能需要更复杂的逻辑和错误处理。在实际应用中,还需要考虑日志记录、配置文件处理、守护进程管理(如启动、停止、重启)等因素。

正确处理僵尸进程的方法

正确处理僵尸进程(Zombie Process)是确保系统资源不被浪费的重要步骤。僵尸进程是指那些已经执行完毕(终止)但仍然保留在进程表中的进程,因为它们的父进程没有回收它们的资源。以下是处理僵尸进程的几种方法:

  1. 回收子进程
    父进程应该在子进程终止后立即调用wait()waitpid()系统调用来回收子进程的资源。这些调用会阻塞父进程,直到子进程终止。在wait()waitpid()调用成功之后,子进程的进程描述符、程序计数器、堆栈等信息会被释放。

  2. 忽略子进程
    如果父进程不关心子进程的退出状态,可以在创建子进程时设置子进程的信号处理为SIG_IGN,这样子进程在终止时不会变成僵尸进程。但是,这种方法会导致子进程的资源无法被操作系统回收。

  3. 使用WNOHANG选项
    在调用wait()waitpid()时,可以使用WNOHANG选项,这样调用会立即返回,而不会阻塞。如果子进程已经终止,它会返回子进程的PID;如果子进程还在运行,它会返回0。这样可以避免父进程在子进程终止时被阻塞。

  4. 使用waitid()
    waitid()是一个更现代的系统调用,它提供了wait()waitpid()的功能,并且具有更多的控制选项。使用waitid()可以更灵活地处理子进程的终止。

  5. 设置子进程为孤儿进程
    如果父进程不打算处理子进程,可以在创建子进程后立即退出。这样,子进程将成为孤儿进程,由init进程(PID为1)接管。init进程会定期检查孤儿进程,并在它们终止时回收资源。

  6. 编写守护进程
    在某些情况下,可以编写一个守护进程来监控和处理僵尸进程。这个守护进程可以定期检查系统中的子进程,并在它们终止时调用wait()来回收资源。

  7. 使用信号处理
    可以在父进程中设置信号处理函数来处理SIGCHLD信号。当子进程终止时,操作系统会向父进程发送SIGCHLD信号。父进程可以在这个信号处理函数中调用wait()来回收子进程资源。

处理僵尸进程的关键是确保父进程能够及时回收子进程的资源。在设计程序时,应该考虑到这一点,并在适当的时候调用wait()或相关系统调用来避免僵尸进程的产生。

fork()读时共享写时拷贝

fork() 是 Unix 系统中创建进程的系统调用之一。在调用 fork() 时,操作系统会创建一个新的进程,称为子进程,该子进程是原始进程(称为父进程)的副本。在 fork() 创建的子进程中,子进程会继承父进程的内存空间,包括代码段、数据段和堆栈等。

读时共享写时拷贝(Copy-on-Write,COW)是指在 fork() 创建子进程时,并不立即复制父进程的内存页,而是等到子进程或父进程尝试修改这些内存页时才进行实际的复制操作。这样做的好处是可以节省内存和复制的时间,因为大多数情况下,子进程在创建后会立即调用 exec() 系列函数执行新的程序,而不是对内存进行写操作。

exec() 系列函数用于在一个进程中执行另一个程序。当子进程调用 exec() 函数时,它所执行的程序将替换掉原先的程序,从而实现了进程的程序替换。这样做的目的通常是为了在子进程中执行不同的程序,例如在一个服务器程序中创建子进程来处理客户端请求,每个子进程可能执行不同的服务逻辑,而 exec() 函数可以用于在子进程中加载并执行相应的服务程序。

exec() 函数调用成功后,原先子进程的地址空间、代码段、数据段等都会被新程序替换掉,因此 exec() 函数实际上会销毁原先的进程,将其替换为一个全新的进程,但是进程的 ID 和父进程的 ID 会保持不变

因此,立即调用 exec() 函数的作用是实现进程的程序替换,使得子进程可以在创建后立即执行新的程序,而不是继续执行原先的程序。

读时共享写时拷贝机制使得父进程和子进程共享同一块物理内存,只有在有一个进程尝试修改内存时才进行复制,从而实现了对内存的高效利用

标签:操作系统,创建,面经,程序,线程,内存,进程
From: https://www.cnblogs.com/drizzledrop/p/18102438

相关文章

  • Chap2:操作系统架构
    简述操作系统支持多进程任务,并且每个进程之前还应当隔离,但又在必要的时候进行交互。操作系统必须满足的三个要求:多路复用、隔离和交互抽象系统资源实现隔离禁止应用程序直接访问敏感的硬件资源,将这些资源抽象为服务,提供接口向应用程序服务。一般来说就是通过系统调用命令来实......
  • 不同操作系统中通用解决方案,浏览器拉起app或打开本机应用软件原理,前端网页如何打开一
    不同操作系统中通用解决方案,浏览器拉起app或打开本机应用软件原理,前端网页如何打开一个PC本地应用,通过Scheme、JavaScript、第三方库分别实现前端网页打开本地应用。设想一个场景,当我们在浏览一个网页并且需要下载某个资源时,你的电脑可能经常会跳出一个提示框,询问你是否需......
  • 2024最新最全Java和Go面经,面试了30多场,终于上岸了!
    ​>本文来自我们技术交流群群友的投稿,未经授权,禁止转载。原文链接:太难了,Java和Go,面试了30多场,终于上岸了!先听一下TA的故事2023年10月份我就做好了离职跳槽的准备,做了3年Java后端开发的我,对自己的技术能力还是很有底气的。之前虽不是一线大厂,也算是比较知名的中厂了。加上前公......
  • 王道操作系统个人向笔记-第一章
    目录操作系统的基本概念操作系统的概念操作系统的功能和目标操作系统的特征操作系统的发展历程手工操作阶段批处理阶段单道批处理系统多道批处理系统分时操作系统实时操作系统操作系统运行环境处理器运行模式中断和异常系统调用操作系统的体系结构操作系统的引导虚拟机操作系统的......
  • 北京理工大学操作系统 实验一 编译Linux内核
    实验一编译Linux内核实验一编译Linux内核一、实验目的二、实验内容三、实验步骤1.安装虚拟机并配置环境实验环境:2.下载并解压Linux内核源码3.配置内核编译选项4.编译并安装内核和模块5.修改GRUB配置四、实验结果及分析五、实验收获与体会Copyright©2024Squar......
  • 支持MacOS苹果操作系统的网卡你用过吗?
    MarvellAQC113以太网控制器支持苹果操作系统(MacOS),进一步扩展搭载了AQC113设备的应用领域。众所周知,苹果操作系统应用生态完善,是业内备受瞩目的巨头级操作系统,其应用领域覆盖了游戏、社交、娱乐、工具,甚至NAS存储、工作站、家用PC及其他嵌入式应用等。MarvellAQC113器件由高性......
  • openEuler20.03操作系统上安装部署MogDB2.1.1
    openEuler20.03操作系统上安装部署MogDB2.1.1本文出处:https://www.modb.pro/db/378319openEuler操作系统上安装mogdb:下载openEuler镜像文件:openEuler-20.03-LTS-x86_64-dvd.iso可以到各镜像源网站下载:例如:清华源下载地址:https://mirrors.tuna.tsinghua.edu.cn/openeule......
  • 字节跳动面试面经
    面试方向岗位是后端开发实习生——番茄小说。职位JD没写什么,想要准备还得是广撒网。我当时的基本情况正在一个技术岗位实习,一个微服务项目,为了提升自己,在在线简历上面写了一个自己简单玩玩的ORM框架,手里就只有这些筹码。面经部分自我介绍这是个基本流程了。本人第一次面试大......
  • 【Android面经】练习时长 1 年 2 个月的 Android菜鸡练习生的面经
    自我介绍本人是练习时长1年2个月的Android菜鸡练习生,去年集团组织架构调整(裁员),一直到现在未找到工作。校招那会儿非科班转码,学了两个多月的时间就上岸了,所以沾沾自喜,工作一年被毒打的不成样子,再次进入社会社招感到基础薄弱,菜的一批。下面是我最近面试的面经:腾讯WXG......
  • 操作系统高级议题:并发控制与进程互斥技术
    ✨✨欢迎大家来访Srlua的博文(づ ̄3 ̄)づ╭❤~✨✨......