百度人工智能首次实现“看图作曲”新华社北京7月22日专电(记者周文林)把看到一幅图画的感受谱写成乐曲,这样的本事以前为人类独有。不过现在,经过深度学习的机器也在向这一目标靠近。百度近日首次尝试将人工智能(AI)技术与视觉艺术和音乐创作相结合,机器可以在分析画作之后,作出与之风格相应的曲子。 针对美国艺术大师罗伯特·劳森伯格的巨作《四分之一英里画作》,百度通过人工智能技术,将其中两联分别谱成20余秒的钢琴曲,实现了视觉呈现向听觉表达的转化。 记者了解到,这是通过规模庞大的神经网络和深度学习算法由机器自主学习实现的。百度神经网络在“看到”图像后,首先会对图像进行分析解读,然后通过搜索挖掘相关的音乐信息,对音乐拆分重组,再合成与图片内容相匹配的音乐旋律,最终拼接成完整的曲子。不过,由于神经网络目前的作曲水平还较为初级,乐曲中的和弦部分由人工干预实现。 这是当前人工智能技术获得的又一新进展。专家表示,虽然机器的这一能力尚与人类有不小差距,但从发展趋势看,人工智能的自主创作能力将不断提高。 今年以来,艺术创作是全球人工智能研究的一个新重点。相关资料显示,谷歌也在加大对人工智能艺术创作能力的研发,包括绘画、作曲、视频拍摄等,近日谷歌还发布了一段由人工智能创作的钢琴曲。 |
|