指责AI就像说狗吃了我的作业

国际新闻2年前发布 inews
247 00
指责AI就像说狗吃了我的作业
Image: Jaime Staley-sickafoose | Dreamstime.com

“说人工智能错了,就像说狗吃了我的作业。”Buro Happold商业、法律和数字风险全球总监May Winfield在数字建设峰会开幕式上如是说

在题为“建筑中的人工智能:朋友还是敌人?”的网络研讨会上发言?,温菲尔德概述了人工智能的三个关键法律问题:保密性、版权和可靠性

她指出:“就像任何技术一样,你不应该担心法律问题,但忽视它们意味着你以后会花很多时间和金钱争论它们。

”[on]保密,你的大多数合同,如果不是全部的话,都会说:“你不会分享你客户的信息。除非获得许可,否则你不会公开分享项目信息。理论上,有人可以向ChatGPT提出正确的问题,并获得信息。”

谈到版权,她说:“这有两个方面。一个是,如果你有一些东西是由人工智能制作的,而没有人与人工智能合作,那么它就没有版权。你无法阻止任何人使用它。”。如果你在一个特定的项目中使用它,如果客户看到它到处复制,他们可能会非常沮丧

“还有一个问题是,你不知道人工智能所教授的信息的来源。大多数人都是从互联网上获取数据的。你不能说:‘当我要求你制作这份文件或要求你改进这张图片时,告诉我信息的来源吧。’”

你能依靠人工智能的输出吗

Winfield随后谈到了人工智能输出的可靠性:“我们的行业不擅长拥有完整的数据集。如果人工智能从不完整的数据集中学习,并为你提供回应,它可能并不完全准确。还有幻觉的问题,这就是人工智能完全编造的地方。说人工智能错了,就像说狗吃了我的作业。你不能责怪这个工具。你仍然必须检查它。”。”

Cohesive首席价值官兼英国特许建筑协会创新咨询小组主席Dave Philp,他说:“我们已经开始在数字孪生的背景下看待数据质量,但当你考虑人工智能时,这增加了一个新的维度。我们如何开始讨论解决数据带来的偏见,以及如何避免人工智能输出中的任何偏见永久化或放大?

“因此,我们必须确保我们考虑的是多样性和代表性的数据集,以增强人工智能的能力:它必须能够理解不同的情况和输出。因此,数据质量已被提上议事日程。我们必须摆脱‘垃圾进,垃圾出’的概念。”,他补充道:“这就是人工智能,对吧?有了真正的智能——人类——你不会检查他们的工作吗?我在未来看到的是,我们将让人工智能完成琐碎而耗时的任务。大多数人将检查人工智能的输出:我们或多或少都将成为人工智能为我们所做工作的审计员和质量检查员。”

Andreas Galatoulas,Aecom的数据、分析和人工智能主管表示:“你不想一遍又一遍地进行同样的检查。你必须确定问题出在哪里,你的数据在哪里被破坏(如果输出有问题)。”。“

他指出,两种不同的算法具有不同的偏见,从相同的数据中产生不同的输出,这与两个不同背景的人类专业人士对同一主题有不同的看法没有什么不同

最后,Xerini首席技术官兼联合创始人Alex Luketa强调了人类元素的重要性:“这取决于你要求人工智能工具做什么。在某些应用程序中,它比其他应用程序更重要。如果它足够重要,你需要一个人来仔细检查。”

Finally, Xerini chief technology officer and co-founder Alex Luketa reinforced the importance of the human element: “It depends on what you’re asking the AI tool to do. There are some applications where it matters more than others. And if it’s important enough, you need a human to double-check things.”

© 版权声明

相关文章

暂无评论

none
暂无评论...