随着现代文明越来越依赖日常生活和运行业务的软件,写作代码的人越来越面临道德问题。
全球对数千名编码人员的调查显示,他们认为与今天的软件开发有关的一些复杂的道德问题。
183个国家100,000个CodersAcross的堆栈溢流开发者调查显示,在某些情况下,大约40%的软件开发人员将考虑在不道德的目的中编写代码。
“道德情况可能很复杂。只有微小的开发人员表示他们会写出不道德的代码,或者他们没有义务考虑代码的道德含义,但是,受访者认为很多道德灰色,“报告说。
“开发人员不确定如何报告道德问题,并对最终对不道德代码负责谁有不同的想法。”
虽然58.5%的编码人员不会以不道德的原因写代码,但是36.6%的人表示,他们会根据它的目标和4.8%表示他们会写它。
谈到报告守则的道德问题时,46.5%表示他们是否报告或不取决于它的内容,35.7%表示他们会报告它,但仅在使用代码的组织内,而超过13%的人表示他们会公开报告,4.6%表示他们不会报告。
大多数编码人员(79%)感到有义务接受代码的道德含义,而只有6%的人觉得他们没有义务。其余的是不确定的,但是40%可能会说他们不需要报告任何道德问题。
只有20%的编码人员认为,如果他们编写的代码用于不道德的目的,他们是负责任的,而57.5%认为使用它负责的组织的上层管理,而22%则责备着这个想法的人。
堆栈溢出调查还发现,只有四分之一的受访者认为政府监管机构应该负责。
调查显示,奇点担心奇迹,人工智能(AI)可以自我改善,最终超过人类智能,以及对公平的决策做出决定的算法。该调查显示,近一半(48%)的编码人员认为,创建AI的人应该拒绝。
使用AI不仅会改变人们的生活,也是他们所做的事情。这可能导致一段不稳定,因为人们被机器人替换,主要是软件品种,也是未来的人形。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。