当前位置: X-MOL 学术Appl. Energy › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Machine learning for early stage building energy prediction: Increment and enrichment
Applied Energy ( IF 10.1 ) Pub Date : 2021-09-10 , DOI: 10.1016/j.apenergy.2021.117787
Manav Mahan Singh 1 , Sundaravelpandian Singaravel 1 , Philipp Geyer 1, 2
Affiliation  

Collecting data for machine learning (ML) development is a resource-intensive task that necessitates identifying an efficient data collection approach. This study focuses on ML models that provide quick energy results by dramatically reducing computational demand. The generalisation of such models for multiple building shapes is vital to early-stage energy prediction. Therefore, this article examines which approach of collecting new training samples improves generalisation more - increment of samples in a similar data range or enrichment with samples exhibiting novelty in shape. The first training dataset collects samples from a box-shaped building energy model (BEM). Distribution analysis suggests that they fill only a small portion of the design space. Using the same BEM, the increment approach collects samples that fill the same portion. In contrast, using three differently shaped BEMs, the enrichment approach collects samples well-distributed in the design space. The distribution of samples in a training dataset is quantified to assess their potential to improve generalisation. Using the same number of training samples, the enrichment approach fills the design space better than the increment, reducing the generalisation error (root-mean-square-error) by 58%, compared to 38% after the increment. Hence, the article suggests analysing the distribution of existing and prospective samples to identify an efficient data collection approach having a higher potential to improve generalisation. The developed method will be useful to save expensive data collection resources by focussing on a limited number of samples.



中文翻译:

早期建筑能源预测的机器学习:增量和丰富

为机器学习 (ML) 开发收集数据是一项资源密集型任务,需要确定有效的数据收集方法。本研究侧重于通过显着减少计算需求来提供快速能量结果的 ML 模型。将此类模型推广到多种建筑形状对于早期能源预测至关重要。因此,本文研究了哪种收集新训练样本的方法更能提高泛化能力——在相似的数据范围内增加样本,或者用表现出新奇形状的样本进行富集。第一个训练数据集从箱形建筑能源模型 (BEM) 中收集样本。分布分析表明它们只占设计空间的一小部分。使用相同的边界元法,增量方法收集填充相同部分的样本。相比之下,使用三种不同形状的 BEM,富集方法收集在设计空间中分布良好的样本。量化训练数据集中样本的分布,以评估其提高泛化能力的潜力。使用相同数量的训练样本,富集方法比增量更能填充设计空间,将泛化误差(均方根误差)降低 58%,而增量后为 38%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。浓缩方法收集在设计空间中分布均匀的样本。量化训练数据集中样本的分布,以评估其提高泛化能力的潜力。使用相同数量的训练样本,富集方法比增量更能填充设计空间,将泛化误差(均方根误差)降低 58%,而增量后为 38%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。浓缩方法收集在设计空间中分布均匀的样本。量化训练数据集中样本的分布,以评估其提高泛化能力的潜力。使用相同数量的训练样本,富集方法比增量更能填充设计空间,将泛化误差(均方根误差)降低 58%,而增量后为 38%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。量化训练数据集中样本的分布,以评估其提高泛化能力的潜力。使用相同数量的训练样本,富集方法比增量更能填充设计空间,将泛化误差(均方根误差)降低 58%,而增量后为 38%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。量化训练数据集中样本的分布,以评估其提高泛化能力的潜力。使用相同数量的训练样本,富集方法比增量更能填充设计空间,将泛化误差(均方根误差)降低 58%,而增量后为 38%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。与增量后的 38% 相比,将泛化误差(均方根误差)降低了 58%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。与增量后的 38% 相比,将泛化误差(均方根误差)降低了 58%。因此,本文建议分析现有和预期样本的分布,以确定一种有效的数据收集方法,该方法具有更高的改进泛化潜力。通过关注有限数量的样本,开发的方法将有助于节省昂贵的数据收集资源。

更新日期:2021-09-12
down
wechat
bug