你的位置:首页 > 软件开发 > 操作系统 > 31.Linux

31.Linux

发布时间:2017-11-20 20:00:17
本节学习目的1)分析Linux中的OSS声卡系统2)移植wm9876声卡3)使用madplay应用程序播放mp3 1.声音三要素采样频率音频采样率是指录音设备在一秒钟内对声音信号的采样次数, 常用的采样率有:8KHz - 电话所用采样率, 对于人的说话已 ...

31.Linux

本节学习目的

  • 1)分析Linux中的OSS声卡系统
  • 2)移植wm9876声卡
  • 3)使用madplay应用程序播放mp3

 


1.声音三要素

采样频率

音频采样率是指录音设备在一秒钟内对声音信号的采样次数, 常用的采样率有:

  • 8KHz      - 电话所用采样率, 对于人的说话已经足够清除
  • 22.05KHz - 无线电广播所用采样率
  • 32KHz   -  miniDV 数码视频、DAT所用采样率
  • 44.1KHz - 音频 CD, 也常用于 MPEG-1 音频(VCD, SVCD, MP3)所用采样率
  • 48KHz   - miniDV、数字电视、DVD、DAT、电影和专业音频所用的数字声音所用采样率
  • 50KHz   - 商用数字录音机所用采样率
  • 96K     -   BD-ROM(蓝光盘)音轨、和 HD-DVD (高清晰度 DVD)音轨等所用采样率

而2440开发板的采样频率IISRCK最高可以达到96KHz,满足了很多常用的采样场合,如下图所示:

31.Linux

量化位数

指每个采样点里传输的数字信号次数,如下图所示, 其中蓝线表示模拟信号,红线表示数字信号,量化位越高,数字信号就越可能接近原始信号,音质越好

 31.Linux

一般的量化位数为:

  • 8位:  分成 256 次;
  • 16位: 分为65536次, 已到 CD 标准;
  • 32位: 分为 4294967296次,很少用到

2440的开发板只支持8位,16位,如下图所示:

其中LRCK就是采样频率,当LRCK为低时,表示传输的采样数据是左声道,当LRCK为高时,表示传输的采样数据是右声道,每个采样点,SD(serial data)都可以传输8位,或16位数字信号(从低位到高位传输)

 31.Linux

声道数

常有单声道和立体声之分,(有的也处理成两个喇叭输出同一个声道的声音),而立体声更能感受到空间效果,但数据量翻倍

 

所以,声音的每秒数据量(字节/s)= (采样频率 × 量化位数 × 声道数) / 8;

2. WM9876声卡硬件分析

声卡是负责录音、播音、调节音量和声音合成等的一种多媒体板卡 

本节使用的声卡是2440板上自带的WM9876声卡

 31.Linux

 

当我们播放声音时 ,将数字信号传入I2SDO脚,声卡便通过解码,产生模拟信号到喇叭/耳机

录音时,声卡便获取麦克风的模拟信号,编码出数字信号到I2SDI引脚上

WM8976接口分为两种:I2S接口(提供音频接收和发送)、控制接口(控制音量大小,使能各个输出通道等)

IIS接口相关的引脚如下    

  • CDCLK : 为编解码芯片提供系统同步时钟 (系统时钟) 
  • I2SSCLK: IIS控制器提供的串行时钟信号 (位数据传输时钟) 
  • I2SLRCK: 采样频率信号,当为低电平时是采样的是左声道信号,为高电平是右声道信号
  • I2SDI : ADC数据输入
  • I2SDO :DAC数据输出

控制接口相关的引脚如下

  • CSB/GPIO1: 3线 控制数据使能引脚
  • SCLK: 3线/2线 时钟引脚
  • SDIN: 3线/2线 数据输入输出引脚
  • MODE: 3线/2线 控制选择,当MODE为高,表示为3线控制,MODE位低,表示2线控制,如下图所示:

                           31.Linux

其它引脚如下:

  • R/LOUT1:音频左/右输出通道1,外接耳机插孔
  • R/LOUT2:音频左/右输出通道2,未接
  • OUT3:单声道输出通道3,未接
  • OUT4:单声道输出通道4,未接
  • LIP/LIN:音频输入通道,外接麦克风

 

那么3线和2线的控制引脚又有什么区别?

3线控制:

如下图所示,3线控制,每周期都要传输16位数据(7位寄存器地址+9位寄存器数据),传输完成后,给CSB一个上升沿便完成一次数据的传输

 31.Linux

2线控制:

如下图所示,2线控制就是I2C通信方式

 31.Linux

本节的WM8976的MODE脚接的高电平,所以是3线控制

 

3.接下来便来分析linux内核的声卡系统

在linux声卡中存在两种声卡系统,一种是OSS(开放声音系统),一种是ALSA(先

进Linux声音架构)。本节系统以OSS(Open Sound System)为例 ,

内核以linux-2.6.22.6版本为例,位于:linux-2.6.22.6\sound\Sound_core.c

3.1首先进入入口函数

如下图所示:

 31.Linux

入口函数里,只注册了一个主设备号为(SOUND_MAJOR)14的“sound”字符设备和class类,这里为什么没有创建设备节点?

是因为, 当注册声卡系统的驱动后,才会有设备节点,此时这里的代码是没有驱动的,后面会分析到

3.2 再来看看“sound”字符设备的file_perations:

 31.Linux

这里只有个.open,为什么没有.read,.write函数?

显然在.open函数里做了某些处理,我们进入soundcore_open()来看看

3.2 soundcore_open()代码如下:

int soundcore_open(struct inode *inode, struct file *file){  int chain;  int unit = iminor(inode);    //获取次设备号,通过次设备号来找声卡驱动  struct sound_unit *s;  const struct file_operations *new_fops = NULL; //定义一个新的file_operations  chain=unit&0x0F;   if(chain==4 || chain==5)  /* dsp/audio/dsp16 */  {    unit&=0xF0;    unit|=3;    chain=3;         }  spin_lock(&sound_loader_lock);     s = __look_for_unit(chain, unit);  //里面通过chains[chain]数组里找到sound_unit结构体            //一个sound_unit对应一个声卡驱动  if (s)    new_fops = fops_get(s->unit_fops); //通过sound_unit,获取对应的file_operations    ... ...  if (new_fops) {           //当找到file_operations    int err = 0;    const struct file_operations *old_fops = file->f_op;//设上次的file_operations等于当前的    file->f_op = new_fops;    //设置系统的file_operations等于s-> unit_fops    spin_unlock(&sound_loader_lock);    if(file->f_op->open)      err = file->f_op->open(inode,file);    if (err) {      fops_put(file->f_op);      file->f_op = fops_get(old_fops);    }    fops_put(old_fops);    return err;  }  spin_unlock(&sound_loader_lock);  return -ENODEV;}

通过上面的代码和注释分析到,系统声卡之所以只有一个open(),里面是通过次设备号来调用__look_for_unit()函数,找到chains[chain]数组里的驱动声卡sound_unit结构体,然后来替换系统声卡的file_operations,实现偷天换日的效果。

__look_for_unit()函数如下图所示:

 31.Linux

其中chains[]数组定义如下所示:

 31.Linux

其中, chains[0]存放的Mixers,实现调节音量,高音等,就是我们VM8976的控制接口

chains[3]存放的DSP,用来实现音频输入输出,就是我们VM8976的I2S接口

显然VM8976的驱动有2个,需要将2个file_operations放入chains[0]和chains[3]数组里,供给系统的open()来调用

3.3 我们以DSP为例,搜索chains[3]来看看

 31.Linux

如上图所示,显然register_sound_dsp()函数就是被我们声卡驱动调用的,用来注册dsp设备节点,继续进入sound_insert_unit()函数看看

3.4 sound_insert_unit()函数如下

static int sound_insert_unit(struct sound_unit **list, const struct file_operations *fops, int index, int low, int top, const char *name, umode_t mode, struct device *dev){  struct sound_unit *s = kmalloc(sizeof(*s), GFP_KERNEL); //分配个新的sound_unit  int r;  if (!s)    return -ENOMEM;    spin_lock(&sound_loader_lock);// __sound_insert_unit()里主要实现:将分配的新的s插入到chains[3]里,然后并放入fops操作结构体  r = __sound_insert_unit(s, list, fops, index, low, top);  spin_unlock(&sound_loader_lock);  if (r < 0)    goto fail;  else if (r < SOUND_STEP)    sprintf(s->name, "sound/%s", name);   //s->name="sound/dsp"  else    sprintf(s->name, "sound/%s%d", name, r / SOUND_STEP);    device_create(sound_class, dev, MKDEV(SOUND_MAJOR, s->unit_minor),s->name+6);  
                         //s->name+6="dsp",也就是在/dev下创建"dsp"的设备节点 return r; fail: kfree(s); return r;}

所以,register_sound_dsp()函数用来创建/dev/dsp 设备节点,同时将dsp相关的file_operations放入chains[3]里面

3.5 同样, Mixers的驱动流程也是这样,它的函数是register_sound_mixer(),如下图所示

 31.Linux

也是创建/dev/mixer设备节点, 同时将dsp相关的file_operations放入chains[0]里面

 

3.6 接下来,我们便搜索register_sound_dsp()函数,看看被哪些声卡驱动调用

如下图所示,找到一个支持s3c24xx板卡的声卡驱动uda1341

31.Linux

uda1341声卡和WM8976声卡非常相似,音频都是I2S接口,就只有控制部分不一样

uda1341声卡的硬件,如下图所示:

 31.Linux

它的控制引脚只有3个:

L3MODE:模式引脚,为高表示传输的是数据,为低表示传输的是寄存器地址

L3CLOCK:时钟引脚

L3DATA:   数据输入/输出引脚

控制接口的时序如下所示:

 31.Linux

和WM8976的控制时序完全不一样,WM8976控制时序如下所示:

 31.Linux

 

所以接下来,便修改S3c2410-uda1341.c的控制部分,来移植为wm8976驱动

4.移植wm8976驱动

 首先进入uda1341的probe函数

static int s3c2410iis_probe(struct device *dev){  struct platform_device *pdev = to_platform_device(dev);  struct resource *res;  unsigned long flags;  printk ("s3c2410iis_probe...\n");  /*获取资源*/  res = platform_get_resource(pdev, IORESOURCE_MEM, 0);  if (res == NULL) {    printk(KERN_INFO PFX "failed to get memory region resouce\n");    return -ENOENT;  }  iis_base = (void *)S3C24XX_VA_IIS ;  if (iis_base == 0) {    printk(KERN_INFO PFX "failed to ioremap() region\n");    return -EINVAL;  }/*获取I2S时钟,并使能*/  iis_clock = clk_get(dev, "iis");  if (iis_clock == NULL) {    printk(KERN_INFO PFX "failed to find clock source\n");    return -ENOENT;  }  clk_enable(iis_clock);  /*进入临界区, 禁止中断,并保存中断状态*/  local_irq_save(flags);  /*设置管脚功能*/  /* GPB 4: L3CLOCK, OUTPUT */  s3c2410_gpio_cfgpin(S3C2410_GPB4, S3C2410_GPB4_OUTP);  s3c2410_gpio_pullup(S3C2410_GPB4,1);  /* GPB 3: L3DATA, OUTPUT */  s3c2410_gpio_cfgpin(S3C2410_GPB3,S3C2410_GPB3_OUTP);  /* GPB 2: L3MODE, OUTPUT */  s3c2410_gpio_cfgpin(S3C2410_GPB2,S3C2410_GPB2_OUTP);  s3c2410_gpio_pullup(S3C2410_GPB2,1);  /* GPE 3: I2SSDI */  s3c2410_gpio_cfgpin(S3C2410_GPE3,S3C2410_GPE3_I2SSDI);  s3c2410_gpio_pullup(S3C2410_GPE3,0);  /* GPE 0: I2SLRCK */  s3c2410_gpio_cfgpin(S3C2410_GPE0,S3C2410_GPE0_I2SLRCK);  s3c2410_gpio_pullup(S3C2410_GPE0,0);  /* GPE 1: I2SSCLK */  s3c2410_gpio_cfgpin(S3C2410_GPE1,S3C2410_GPE1_I2SSCLK);  s3c2410_gpio_pullup(S3C2410_GPE1,0);  /* GPE 2: CDCLK */  s3c2410_gpio_cfgpin(S3C2410_GPE2,S3C2410_GPE2_CDCLK);  s3c2410_gpio_pullup(S3C2410_GPE2,0);  /* GPE 4: I2SSDO */  s3c2410_gpio_cfgpin(S3C2410_GPE4,S3C2410_GPE4_I2SSDO);  s3c2410_gpio_pullup(S3C2410_GPE4,0);  /*退出临界区,使能中断,并恢复之前保存的flags中断状态*/  local_irq_restore(flags);  /*设置2440的I2S寄存器*/  init_s3c2410_iis_bus();  /*初始化uda1341声卡的控制部分*/  init_uda1341();  /*设置DMA输出通道,用来接收声音*/  output_stream.dma_ch = DMACH_I2S_OUT;  if (audio_init_dma(&output_stream, "UDA1341 out")) {    audio_clear_dma(&output_stream,&s3c2410iis_dma_out);    printk( KERN_WARNING AUDIO_NAME_VERBOSE": unable to get DMA channels\n" );    return -EBUSY;  } /*设置DMA输入通道,用来接收声音*/  input_stream.dma_ch = DMACH_I2S_IN;  if (audio_init_dma(&input_stream, "UDA1341 in")) {    audio_clear_dma(&input_stream,&s3c2410iis_dma_in);    printk( KERN_WARNING AUDIO_NAME_VERBOSE": unable to get DMA channels\n" );    return -EBUSY;  }  /*创建/dev/dsp,/dev/mixer两个设备节点,
并将smdk2410_audio_fops和smdk2410_mixer_fops 两个file_operations放入chains[0]和chains[3]里,供给内核的声卡系统调用*/ audio_dev_dsp = register_sound_dsp(&smdk2410_audio_fops, -1); audio_dev_mixer = register_sound_mixer(&smdk2410_mixer_fops, -1); printk(AUDIO_NAME_VERBOSE " initialized\n"); return 0;}

从上面的代码来看, uda1341的管脚和wm8976的管脚连接都是一样的,只有init_uda1341()不一样,里面是初始化uda1341的控制引脚接口,所以需要屏蔽,然后自己来写个init_wm8976()函数

 

4.1写init_wm8976()函数之前需要先写一个寄存器操作函数

参考wm8976芯片手册时序图:

 31.Linux

所以,代码如下: 

static void wm8976_write_reg(unsigned char reg, unsigned int data){int i;unsigned long flags;//对于wm8976来说,数据的高七位表示寄存器地址,低9位表示寄存器的值unsigned short val = (reg << 9) | (data & 0x1ff);
/*wm8976引脚csb,dat,clk分别对应2440芯片的GPB2,3,4引脚*/ s3c2410_gpio_setpin(S3C2410_GPB2,1); s3c2410_gpio_setpin(S3C2410_GPB3,1); s3c2410_gpio_setpin(S3C2410_GPB4,1); /*退出临界区,使能中断,并恢复之前保存的flags中断状态*/ local_irq_save(flags);
/*把val值写入wm8976,共16位,从高到低传输*/ for (i = 0; i < 16; i++){ if (val & (1<<15)) { s3c2410_gpio_setpin(S3C2410_GPB4,0); s3c2410_gpio_setpin(S3C2410_GPB3,1); udelay(1); s3c2410_gpio_setpin(S3C2410_GPB4,1); } else { s3c2410_gpio_setpin(S3C2410_GPB4,0); s3c2410_gpio_setpin(S3C2410_GPB3,0); udelay(1); s3c2410_gpio_setpin(S3C2410_GPB4,1); } val = val << 1; } //传输完成,需要让csb信号产生低脉冲,写入wm8976 s3c2410_gpio_setpin(S3C2410_GPB2,0); udelay(1);//引脚恢复到高电平状态 s3c2410_gpio_setpin(S3C2410_GPB2,1); s3c2410_gpio_setpin(S3C2410_GPB3,1); s3c2410_gpio_setpin(S3C2410_GPB4,1); local_irq_restore(flags);}

 

4.2.参考wm8976g.pdf第87页,来初始化wm8976,使能输出声道1,2,混响器等

static void init_wm8976(void){  uda1341_volume = 57;   // wm8976的音量默认值,后面会讲到  uda1341_boost = 0;  /* software reset */  wm8976_write_reg(0, 0);  /* BIT[6-5]:使能音频的输出左右通道2  * BIT[3]: 使能mixer混音器的输出右通道   * BIT[2]: 使能mixer混音器的输出右通道   * BIT[1]: 使能DAC传输的右通道     * BIT[0]: 使能DAC传输的左通道  */  wm8976_write_reg(0x3, 0x6f);     /* BIT[4]: 使能输出麦克风电压  */  wm8976_write_reg(0x1, 0x1f);   wm8976_write_reg(0x2, 0x185);//ROUT1EN LOUT1EN, inpu PGA enable ,ADC enable  wm8976_write_reg(0x6, 0x0);//SYSCLK=MCLK   wm8976_write_reg(0x4, 0x10); // [4:3]=10:使用I2S接口传输       wm8976_write_reg(0x2B,0x10);//BTL OUTPUT   wm8976_write_reg(0x9, 0x50);//Jack detect enable   wm8976_write_reg(0xD, 0x21);//Jack detect   wm8976_write_reg(0x7, 0x01);//Jack detect}

wm8976初始化修改完成后,还需要修改音量控制等函数,之前就分析了uda1341的probe函数,里面会注册dsp、mixer设备节点:

/dev/dsp

用来播发和录音,由于uda1341和wm8976都用了I2S接口,所以dsp的file_operations不需要修改,

/dev/mixer

用来控制音量,调低音,高音等,由于wm8976的控制接口不一样,所以需要修改mixer的file_operations->ioctl函数

4.3 mixer的file_operations->ioctl函数如下所示:

static int smdk2410_mixer_ioctl(struct inode *inode, struct file *file,unsigned int cmd, unsigned long arg){  int ret;  long val = 0; switch (cmd) {  case SOUND_MIXER_INFO:           //CASE : 获取声卡的描述信息{  mixer_info info;  strncpy(info.id, "UDA1341", sizeof(info.id));  strncpy(info.name,"Philips UDA1341", sizeof(info.name));  info.modify_counter = audio_mix_modcnt;    return copy_to_user((void *)arg, &info, sizeof(info)); //上传用户层} ... ...case SOUND_MIXER_WRITE_VOLUME:       //CASE: 写音量,音量值为0~99ret = get_user(val, (long *) arg); //读用户层的数据,并放在val里   if (ret)     return ret;  uda1341_volume = 63 - (((val & 0xff) + 1) * 63) / 100; //转换为寄存器音量值  uda1341_l3_address(UDA1341_REG_DATA0); //写入音量的寄存器地址  uda1341_l3_data(uda1341_volume);   //写入转换后的寄存器值数据     break;case SOUND_MIXER_READ_VOLUME:          //CASE: 读音量,音量值为0~100  val = ((63 - uda1341_volume) * 100) / 63; //将寄存器音量值转换为原始数据  val |= val << 8;      return put_user(val, (long *) arg);      //上传音量值case SOUND_MIXER_READ_IGAIN:         //CASE: 读(in gain)混音输入增益  val = ((31- mixer_igain) * 100) / 31;      return put_user(val, (int *) arg);
case SOUND_MIXER_WRITE_IGAIN:     //CASE: 写(in gain)混音输入增益 ret = get_user(val, (int *) arg);if (ret) return ret; mixer_igain = 31 - (val * 31 / 100); /* use mixer gain channel 1*/ uda1341_l3_address(UDA1341_REG_DATA0); uda1341_l3_data(EXTADDR(EXT0)); uda1341_l3_data(EXTDATA(EXT0_CH1_GAIN(mixer_igain))); break;default: DPRINTK("mixer ioctl %u unknown\n", cmd); return -ENOSYS; } return 0;}

从上面的代码来看,显然接下还要修改以下几个与控制接口相关的case:

  • case SOUND_MIXER_WRITE_VOLUME:            //写音量
  • case SOUND_MIXER_READ_VOLUME:             //读音量
  • case SOUND_MIXER_READ_IGAIN:                 //读(in gain)混音输入增益
  • case SOUND_MIXER_WRITE_IGAIN:                //写(in gain)混音输入增益

 

4.4修改“case SOUND_MIXER_WRITE_VOLUME:”和“case SOUND_MIXER_READ_VOLUME:”

如下图所示(参考wm8976手册的P86页):

 31.Linux 

其中52,53对应的输出左右通道1的音量,54,55对应的输出左右通道2的音量

而我们耳机位于输出左右通道1,如下图所示,所以我们需要设置52,53的寄存器

 31.Linux

接下来,便来看看寄存器,如何读写音量

我们以53通道1寄存器为例:

 31.Linux

如上图所示:

  • bit8:  为1,表示每次写入音量值,即立刻更新音量
  • bit7:  位1,表示通道1的左右声道都静音
  • bit6:       位1,表示通道1的右声道静音
  • bit5~0:   表示音量大小,默认值为57(111001),最大值为63

所以修改的内容如下所示:

case SOUND_MIXER_WRITE_VOLUME:  //音量0~100 ret = get_user(val, (long *) arg);   //读取应用数据,存到val里 if (ret)   return ret; uda1341_volume = (((val & 0xff)) * 63) / 100;  //最大值为63,最小值为0wm8976_write_reg(52, (1<<8)| uda1341_volume);wm8976_write_reg(53, (1<<8)| uda1341_volume); break;case SOUND_MIXER_READ_VOLUME:val = (uda1341_volume * 100) / 63;  //最大值为99  return put_user(val, (long *) arg);

 

4.5修改“case SOUND_MIXER_READ_IGAIN:”和“case SOUND_MIXER_WRITE_IGAIN:”

参考wm8976手册的P86页,如下图所示:

 31.Linux

其中50,51对应的就是左右混音控制寄存器

我们以50左声道混音寄存器为例:

 31.Linux 

如上图所示:

bit8~6: 混音输入增益,默认值为0,最大值为7

所以修改的内容如下所示:

1)首先修改混音输入增益的初始默认值为0,如下图所示

 31.Linux

2)修改“case SOUND_MIXER_READ_IGAIN:”和“case SOUND_MIXER_WRITE_IGAIN:”

case SOUND_MIXER_READ_IGAIN: //混音输入:0~100val = (mixer_igain* 100) / 7;return put_user(val, (int *) arg); case SOUND_MIXER_WRITE_IGAIN:ret = get_user(val, (int *) arg);if (ret)return ret;mixer_igain = val * 7 / 100;/* use mixer gain channel 1*/wm8976_write_reg(50, mixer_igain<<6);wm8976_write_reg(51, mixer_igain<<6);break;

 

5.配置,修改内核文件

5.1 make menuconfig 配置内核

-> Device Drivers

  -> Sound

    -> Advanced Linux Sound Architecture  // 兼容OSS

      -> Advanced Linux Sound Architecture

        -> System on Chip audio support

        <*> I2S of the Samsung S3C24XX chips              //*:将/linux-2.6.22.6/sound/soc/s3c24xx下的makefile指定的文件加入内核里

5.2 将修改好的s3c-wm8976.c放入/linux-2.6.22.6/sound/soc/s3c24xx目录下

5.3修改该目录下的makefile

obj-y += s3c2410-uda1341.o

改为:

obj-y += s3c-wm8976.o  

5.4 make uImage,如下图所示,可以看到内核已经被编译

 31.Linux

最后下载并启动内核,如下图所示,可以看到该两个设备节点

31.Linux

 

6.测试与运行

6.1使用wav测试声卡

wav是属于一个未经压缩的音频文件,所以可以直接调用给我们声卡播放

播放:

     cat Windows.wav > /dev/dsp

录音(还需要修改下驱动才行):

   cat /dev/dsp > sound.bin 

   //然后对着麦克风说话

   ctrl+c    //退出

   cat sound.bin > /dev/dsp  // 就可以听到录下的声音

 

6.2使用madplay应用程序测试声卡

Madplay是一个根据MAD算法写的MP3播放器,而MP3属于高压缩比(11:1)的文件,所以需要madplay解码后才能给我们声卡播放,使用之前,需要先来移植madplay

步骤如下:

1)首先下载并解压3个文件

  • libid3tag-0.15.1b.tar.gz                      //mp3的解码库
  • libmad-0.15.1b.tar.gz                         //madplay的文件库
  • madplay-0.15.2b.tar.gz                      //madplay播放器的源码

2)先创建安装目录mkdir tmp

3)接下来先安装2个库(./configure使用参考:

cd libid3tag-0.15.1b/ libmad-0.15.1b       ./configure --host=arm-linux --prefix=/app/tmp  //修改configure,设置编译器,设置安装路径make      //编译make install    //安装到/app/tmp目录下

4)最后安装madplay-0.15.2b

cd madplay-0.15.2b./configure --host=arm-linux --prefix=/app/tmp CFLAGS="-I/app/tmp/include" LDFLAGS="-L/app/tmp/lib"    
                                     // CFLAGS:指定头文件, LDFLAGS:指定库文件make make install

 

5)把/app/tmp/bin下的所有文件复制到开发板nfs的bin目录下,

cd /app/tmp/bin /cp * /work/nfs_root/bin

6)把/app/tmp/lib下的带so文件 复制到开发板nfs的lib目录里:

cd /app/tmp/lib/cp *so* /work/nfs_root/lib/ -d    //带链接复制

 

7)使用madplay播放mp3

 ./madplay 1.mp3 2.mp3 3.mp3   //循环播放3首歌

并可以使用热键来控制,常用的有以下几种:

  • f    下一首
  • b   下一首
  • i    获取播放时间和播放歌曲名
  • p   播放暂停
  • s   停止
  • +  音量加
  • -   音量减

 

 

原标题:31.Linux

关键词:linux

*特别声明:以上内容来自于网络收集,著作权属原作者所有,如有侵权,请联系我们: admin#shaoqun.com (#换成@)。

可能感兴趣文章

我的浏览记录