بانک مقالات

Author(s): Z. Shaeiri, S. J. Kazemitabar

Year: 2020

Published: www.ije.ir

Abstract:

Collecting insurance fraud samples is costly and if performed manually is very time consuming. This issue suggests the usage of unsupervised models for fraud data collection. One of the accurate methods in this regards is Spectral Ranking of Anomalies (SRA) that is shown to work better than other methods for auto-insurance fraud detection, specifically. However, this approach is not scalable to large samples and is not appropriate for online fraud detection. This is while, real-time fraud management systems are necessary to prevent huge losses. In this study, we propose an implementation methodology which makes it possible to apply the SRA to big data senarios. We exploit the power of spectral ranking of anomalies to create an estimated target variable from the unlabeled dataset. We then use two robust models, namely, random forest and deep neural networks to fit a model based on the estimated labeled training set. Next, the incoming live data are fed to the mentioned trained models for predicting the target variable. Simulation results confirm that the proposed approach has higher speed and acceptable false alarm rate compared to existing related methods.

 

نویسنده (گان): مهسا فرشادی نیا – علی بصیری قایمی پسند

سال انتشار: زمستان ۱۳۹۷

ارائه شده در:  یازدهمین کنفرانس بین المللی حسابداری و مدیریت و هفتمین کنفرانس کارآفرینی و نوآوری های باز

چکیده:

فناوری داده کاوی سازمان ها را قادر می سازد تا از سرمایه داده هایشان بهره برداری نمایند.این ابزار برای پشتیبانی فرایندتصمیم گیری استفاده می گردد.داده کاوی پردازش بهینه تصمیم گیری را در سازمان ها تسهیل نموده و با انجام فرایندتصمیم سازی از طریق استخراج دانش با ارزش از داده، تصمیم را برای مدیران سازمان تسهیل می نماید.

بنابراین ضروریاست تا برای به کار بستن این ابزار در سازمان ها اهمیت بیشتری قایل شده تا در نهایت به فرایند تصمیم گیری بهینهمدیران منجر شود.امروزه حجم انبوه اطلاعات و تعاملات پیچیده و فزاینده داده کاوی را به صف مقدم فرآیند سودآور نمودن سازمان ها مبدل نموده است.

درجامعه نوین کنونی سازمان ها و موسسات استفاده از روش های سنتی جمع آوری و تحلیل داده به دلیلاتلاف زمان و ایجاد هزینه های بسیار زیاد و عدم استفاده از سیستم های تصمیم گیری هوشمند مدرن مناسب نموده ازاین رو استفاده از روشهای جدید آنالیز داده مانند داده کاوی برای پایگاه داده این صنعت بسیار حیاتی است.

در سال های اخیر موضوع پول شویی، ابعاد و انواع آن و روش های مقابله و پیش گیری از آن، رشد فزاینده ای در ادبیاتمربوط به جلوگیری از فساد در موسسات مالی و پولی به خود اختصاص داده است. در این تحقیق هدف این است که بااستفاده از ابزارهای داده کاوی مدل هایی پیش بینی کننده به منظور پیش بینی و تشخیص پولشویی ها در مراکز مالی باتمرکز بر روی تراکنش های موجود در بانک ها ایجاد گردد.

Author(s): MelanieSwan

Year: 2018

Published:Advances in Computers, Volume 111, 2018, Pages 121-162

 
 

Abstract:

This chapter discusses Blockchain distributed ledgers in the context of public and private Blockchains, enterprise Blockchain deployments, and the role of Blockchains in next-generation artificial intelligence systems, notably deep learning Blockchains. Blockchain technology is a software protocol for the secure transfer of unique instances of value (e.g., money, property, contracts, and identity credentials) via the Internet without requiring a third-party intermediary such as a bank or government.

Public Blockchains such as Bitcoin and Ethereum are trustless (human counterparties and intermediaries do not need to be trusted, just the software) and permissionless (open use), whereas private Blockchains are trusted and permissioned. Enterprise Blockchains are private (trusted, not trustless) immutable decentralized ledgers, with varying methods of reaching consensus (validating and recording transactions). Four enterprise systems are examined: R3’s Corda, Ethereum Quorum, Hyperledger Fabric, and Ripple.

New business analytics and data science methods are needed such as next-generation artificial intelligence solutions in the form of deep learning algorithms together with Blockchains. The hidden benefit of Blockchain for data analytics is its role in creating “clean data”: validated, trustable, interoperable, and standardized data.

Business Blockchains may develop across industry supply chains with shared business logic and processes, and shared financial ledgers. Payment channels and smart contract asset pledging may allow net settlement across supply chains and reduce debt and working capital obligations. Specific use cases are considered in global automotive supply chains, healthcare, digital identity credentialing, higher education, digital collectibles (CryptoKitties), and asset tokens (Primalbase).

Author(s): KaterinaBožič– VladoDimovski

Year: 2019

Published: International Journal of Information Management, Volume 46, June 2019, Pages 93-103

 
 
 

Abstract:

 

Firms continuously report increased competitive value gains from the use of business intelligence and analytics (BI&A), however, little is known about how insights from BI&A are transformed to added value to date. We have conducted fourteen in-depth, semi-structured interviews with a sample of informants in CEO positions, IT managers, CIO, Heads of R&D, as well as Market Managers from nine medium or large-sized European firms. Applying the absorptive capacity’s theoretical lens, we have provided evidence that absorptive capacity’s capabilities are an underlying foundation in the process of transforming BI&A triggered insights into valuable knowledge. Moreover, this process is supported by technological, human, and relationship assets.

Author(s): CristóbalBarba-GonzálezJoséGarcía-NietoMaría del MarRoldán-GarcíaIsmaelNavas-DelgadoAntonio J.Nebro– José F.Aldana-Montes

Year: 2019

Published: Expert Systems with Applications- Volume 115, January 2019, Pages 543-556

 
 
 

Abstract:

 

Knowledge extraction and incorporation is currently considered to be beneficial for efficient Big Data analytics. Knowledge can take part in workflow design, constraint definition, parameter selection and configuration, human interactive and decision-making strategies. This paper proposes BIGOWL, an ontology to support knowledge management in Big Data analytics. BIGOWL is designed to cover a wide vocabulary of terms concerning Big Data analytics workflows, including their components and how they are connected, from data sources to the analytics visualization.

It also takes into consideration aspects such as parameters, restrictions and formats. This ontology defines not only the taxonomic relationships between the different concepts, but also instances representing specific individuals to guide the users in the design of Big Data analytics workflows.

For testing purposes, two case studies are developed, which consists in: first, real-world streaming processing with Spark of traffic Open Data, for route optimization in urban environment of New York city; and second, data mining classification of an academic dataset on local/cloud platforms. The analytics workflows resulting from the BIGOWL semantic model are validated and successfully evaluated.

Author(s): FatmaChiheb– FatimaBoumahdi– HafidaBouarfa

Year: 2019

Published: Procedia Computer Science, Volume 151, 2019, Pages 636-642

 
 
 

Abstract:

 

Big data is becoming a key factor within organizations since the application of Big Data in modern business provides information in real-time that allows organizations to take a faster and smarter decision.

Therefore, big data is widely used in many domains of modern society to achieve progress in these domains. This study aims to harness the opportunity of Big Data to enhance the decision-making process in the organization.

The objective of this paper is to develop a theoretical model that integrates big data into the decision-making process to improve the decision-making process in the organization. The proposed model relies on three basic elements, namely: (1) decision-making process that includes four phases: intelligence, design, choice, and implementation phase;(2) big data analytics to collect, store, manage, and analyze the huge amount of diverse data to extract business value; and (3) decision-modeling using Decision Model and Notation standard to support the communication between the decision makers and Big Data analytical team during the phases of the decision-making process.

The interaction between these three elements enhances the decision-making process to make smarter and faster driven-data decisions that make a real impact in the organization.

Author(s): Chih PingChenJu-YinWeng_Chin-ShengYangFan-MeiTseng

Year: 2018

Published: Technological Forecasting and Social Changeو Volue 130, May 2018, Pages 88-98

 
 

Abstract:

Recent technological advances in communication infrastructure, especially those in the realm of mobile services, have drastically impacted how people interact socially.

The more ubiquitous and convenient mobile approach has steered away users from the traditional computer-mediated systems. As the mobile trend continues, understanding usage behavior patterns of its users becomes critical to harness the power of this new technology.

One particular user group, opinion leaders deemed tremendously influential on the usage behavior of other users, is the main focus of this study. Existing literature on the mobile usage pattern of opinion leaders is limited to theoretical rather than empirical studies. This research attempts to bridge the gap. Drawing from one of the largest Taiwanese telecommunications databases, we try to identify mobile opinion leaders and further cluster their mobile usage patterns by mining the actual data. This study exploits a combination of techniques, including statistics, data mining, and pattern recognition, in our data analysis.

Four main characteristics and seven usage patterns of mobile opinion leaders were identified. There are two main contributions of this work. The first contribution is the application of opinion leadership theories applied in the traditional marketplace into mobile services based on a big data system; the second offers a taxonomy to logically analyze each pattern of mobile content usage behavior gathered from mining the data to provide better planning blueprint for future mobile resource consumption.

نویسنده (گان): زربخش انصاری پیرسرایی و دکتر اسداله شاه بهرام

سال انتشار: زمستان ۱۳۹۳

ارائه شده در:  فصلنامه روند، سال بیست و یکم، شماره ۶۸ ، زمستان ۱۳۹۳ ، صفحات۱۷۹ الی ۲۱۲

چکیده:

در دنیای امروز، استفاده از فناوری اطلاعات در تمامی ابعاد زندگی بشر امکان پذیر شده است. یکی از این زمینه ها، صنعت بانکداری الکترونیکی است که امکان انجام عملیات بانکی با استفاده از این تکنولوژی به طور سریع، دقیق، بدون محدودیت مکان و زمان و در هر لحظه از شبانه روز فراهم شده است. از طرفی استفاده از این تکنولوژی ریسک هایی را به همراه دارد که از جمله می توان به انجام عملیات پولشویی اشاره کرد. پولشویان سعی بر این دارند که در بانکداری الکترونیکی از فضای اینترنتی و مجازی بیشترین استفاده را در جهت فعالیت های مجرمانه خود داشته باشند، چرا که نقل و انتقالات پولی بدون واسطه و گمنام می تواند حاشیه امنی را برای آنها ایجاد نماید. روش های پولشویی، با پیشرفت بانکداری الکترونیکی به تدریج پیچیده تر شده و شناسایی آنها با توجه به حجم انبوه اطلاعات، بدون استفاده از سیستم های تشخیص پولشویی میسر نیست. هدف از این مقاله بیان ضرورت استفاده از سیستم های تشخیص پولشویی در بانکداری الکترونیکی و بررسی این سیستم ها بوده تا با توجه به ویژگی های صنعت بانکداری الکترونیکی در ایران، یک سیستم ضدپولشویی برای سیستم بانکی کشور طراحی و ارائه شود.

نویسنده (گان): سپیده آقایی – سبحان اسماعیلی

سال انتشار: ۱۳۹۶

ارائه شده در: سومین کنفرانس بین المللی مدیریت و مهندسی صنایع

چکیده:

امروزه پیشرفت تکنولوژی و گسترش نفوذ اینترنت اشیاء به بازاریان اجازه می دهد تا اطلاعات غنی ای از مصرف کنندگان را با حجم، تنوع و سرعت بیشتری در اختیار داشته باشند. فراهم بودن امکانی در جهت نگهداری و استفاده از این حجم متنوع از اطلاعات که با سرعت در حال تغییر و افزایش می باشد، بازاریان را قادر می سازد تا شکاف های ناخوشایند موجود در رفتار مصرف کنندگان را درک و در جهت اصلاح آن حرکت نمایند. در این میان کلان داده به عنوان یک فناوری جدید به عنوان یک مهم خود را به عنوان ابزاری در جهت نگهداری و مدیریت این نوع از داده مطرح می کند. در این مقاله با توجه به اهمیت این مهم به بررسی فناوری کلان داده پرداخته و تاثیراتی را که این فناوری می تواند در تجزیه و تحلیل رفتار مصرف کننده و بهبود سیستم های بازاریابی داشته باشد را مورد بررسی و ارزیابی قرار می دهیم.

نویسنده (گان): زهرا کریمی و فاطمه کریمی

سال انتشار: ۱۳۹۷

ارائه شده در: اولین همایش فناوری اطلاعات و ارتقاء سلامت

چکیده:

نظام سلامت از مهم ترین بخش های جوامع صنعتی است که با رشد سریع داده های حیاتی همراه است. نیاز به تجزیه و تحلیل و یافتن روابط بین داده-های این حوزه، سبب استفاده از فناوری های نوینی از جمله داده کاوی است که در پیشگیری، تشخیص و درمان افراد کمک کنند. هدف از نگارش این مقاله بررسی فرصت ها و چالش های داده کاوی در نظام سلامت می باشد.روش کار: در این مطالعه مروری، جستجو در منابع معتبر علمی فارسی و انگلیسی در وب مانند Elsevier ,Springer ,IEEE ,PubMed Sid طی سال های ۲۰۰۰ تا ۲۰۱۸ انجام گردید. برای جستجوی منابع انگلیسی از کلیدواژه هایی نظیر , Clinical Data minig, Data mining Data mining Challenges و در جستجوی منابع فارسی از کلیدواژه های داده کاوی ، داده کاوی پزشکی و چالش های داد ه کاوی استفاده شد. با توجه به تعداد زیاد مقالات محدودسازی مقالات براساس تاریخ انتشار، امکان دسترسی به متن کامل مقاله برای استخراج مفاهیم مورد نظر و حذف مقالات استخراجی غیر مرتبط با هدف پژوهش بود. همچنین از دیگر معیارهای خروج مقالات از مطالعه تکراری بودن محتوا و قدیمی بودن تاریخ انتشار آن ها بوده است.یافته ها: در این پژوهش ۴۵ مقاله استخراج و ۱۶ مقاله مورد بررسی قرار گرفت. در این پژوهش ها، تکنیک ها و الگوریتم های داده کاوی متفاوتی چون دسته بندی، رگرسیون و خوشه بندی مطرح شده است. بررسی این مقالات نشان می دهد که پیش بینی و تشخیص بیماری ها، بررسی اثر بخشی معالجات، مدیریت بهتر خدمات بهداشتی و درمانی، کشف تقلب و سوء استفاده، از مهم ترین کاربردهای داده کاوی در این های پزشکی، وجود داده های ناقص و غیر دقیق، جامعیت و یکپارچگی ضعیف داده ها، مسایل مربوط به مقدار زیاد نتایج و دانش کشف شده و تفسیر آن حوزه می باشند. حجیم و ناهمگونی داده ها، مسایل مربوط به مالکیت، امنیت و محرمانگی داده ها، اهمیت تفسیر پزشکان، طبیعت پویای داده ها، نیاز به مداخله متخصصین مربوطه و محدودیت های در اختیار قرار دادن داده ها توسط پزشکان و مراکز درمانی به محققین داده کاوی نیز از مهم ترین چالش هاست.نتیجه گیری: باتوجه به اهمیت داده کاوی در نظام سلامت، سیاستگذاران و مدیران با وضع قوانین مناسب و فرهنگ سازی استفاده از داده کاوی می توانند باعث کاهش هزینه ها و افزایش کیفیت خدمات بهداشتی و درمانی شوند. همچنین فعالان حوزه فناوری اطلاعات نیز می توانند با تولید و توسعه نرم افزارهای داده کاوی استاندارد در ارتقا نظام سلامت تاثیرگذار باشند.

Author(s): Huikyo Lee, Luca Cinquini, Daniel Crichton, Amy Braverman

Year: 2015

Published: 2015 IEEE International Conference on Big Data (Big Data)

 
 
 
 

Abstract:

In this paper, we describe an emergent tool called DAWN (short for “Distributed Analytics, Workflows and Numeric”) which is a model for simulating, analyzing and optimizing system architectures for executing arbitrary data processing pipelines. As an example, we will apply DAWN to the investigation of a real-life Big Data use case in climate science: the evaluation of simulated rainfall characteristics using high-resolution observational data. We will show how DAWN can help in determining the optimal architecture, and science algorithms, to execute this case study analyzing distributed datasets, as a tradeoff between the overall time cost and the uncertainty of calculated metrics for model evaluation. We will also show how DAWN can guide architectural decisions for future research, specifically impacting how data should be generated and analyzed to cope with future projected data volumes.

Author(s): LiYibin, KekeGai, LongfeiQiu, MeikangQiu, ZhaoHui

Year: 2017

Published: Information Sciences, Volume 387, May 2017, Pages 103-115

 
 

Abstract:

Implementing cloudcomputing empowers numerous paths for Web-based service offerings to meet diverse needs. However, the data security and privacy has become a critical issue that restricts many cloud applications. One of the major concerns in security and privacy is caused by the fact that cloud operators have chances to reach the sensitive data. This concern dramatically increases users’ anxiety and reduces the adoptability of cloud computing in many fields, such as the financial industry and governmental agencies. This paper focuses on this issue and proposes an intelligent cryptography approach, by which the cloud service operators cannot directly reach partial data. The proposed approach divides the file and separately stores the data in the distributed cloud servers. An alternative approach is designed to determine whether the data packets need a split in order to shorten the operation time. The proposed scheme is entitled Security-Aware Efficient Distributed Storage (SA-EDS) model, which is mainly supported by our proposed algorithms, including Alternative Data Distribution (AD2) Algorithm, Secure Efficient Data Distributions (SED2) Algorithm and Efficient Data Conflation (EDCon) Algorithm. Our experimental evaluations have assessed both security and efficiency performances and the experimental results depict that our approach can effectively defend main threats from clouds and requires with an acceptable computation time.

Author(s): Mohsen Marjani, Fariza Nasaruddin, Abdullah Gani, Ahmad Karim

Year: 2017

Published: IEEE Access ( Volume: 5), ۵۲۴۷ -۵۲۶۱, ۲۹ March 2017

 
 
 
 

Abstract:

Voluminous amounts of data have been produced, since the past decade as the miniaturization of Internet of things (IoT) devices increases. However, such data are not useful without analytic power. Numerous big data, IoT, and analytics solutions have enabled people to obtain valuable insight into large data generated by IoT devices. However, these solutions are still in their infancy, and the domain lacks a comprehensive survey. This paper investigates the state-of-the-art research efforts directed toward big IoT data analytics. The relationship between big data analytics and IoT is explained. Moreover, this paper adds value by proposing a new architecture for big IoT data analytics. Furthermore, big IoT data analytic types, methods, and technologies for big data mining are discussed. Numerous notable use cases are also presented. Several opportunities brought by data analytics in IoT paradigm are then discussed. Finally, open research challenges, such as privacy, big data mining, visualization, and integration, are presented as future research directions.

Author(s): Elaheh Radmehr & Mohammad Bazmara

Year: 2017

Published: nternational Journal of Mechatronics, Electrical and Computer Technology 7 (23):3280-3298 (2017)

 

Abstract:

Nowadays, the economic and social nature of contemporary business organizations chiefly banks binds them to face with the sheer volume of data and information and the key to commercial success in this area is the proper use of data for making better, faster and flawless decisions. To achieve this goal organizations requires strong and effective tools to enable them in automating task analysis, decision-making, strategy formulation and risk prediction to prevent bankruptcy and fraud .Business Intelligence is a set of skills, technologies and application systems used to collect, store, analyze and create effective access to the task to help organizations better understand the business context and make accurate decision timely and respond quickly toward inflation, rate fluctuations and the market price. In this paper we review recent literature in the search for trends in business intelligence applications for the banking industry and its challenges and finally some articles that comprise this special issue are introduced and characterized in terms of business intelligence research framework.

 

Author(s): DineshBatra

Year: 2018

Published:Journal of Systems and Software, Volume 146, December 2018, Pages 249-262

 

Abstract:

Practically all organizations are developing data warehousing, business intelligence, and analytics (DW/BIA) projects for achieving customer value. A DW/BIA development project may be characterized by both agile and plan-driven aspects. The reported study investigated two research questions: (1) Which factor, agile values or plan-driven aspects, contributes more toward the success of DW/BIA? (2) What are the significant antecedents of agile values and plan-driven aspects? 124 respondents engaged in DW/BIA development filled a 30-item questionnaire on seven constructs. The partial least squares structural equation modeling (PLS-SEM) method was used to determine the strength of the relationships among the following factors: technological capability, shared understanding, top management commitment, and complexity as antecedents; agile values and plan-driven aspects as mediating; and project success as the dependent construct. Based on a prediction-oriented segmentation (PLS-POS) analysis, the findings indicate that there are two groups, agile-plan balanced and agile-heavy, which represent different approaches to DW/BIA development. Top management commitment and shared understanding emerge as strong antecedents to agile values and plan-driven aspects. Overall, the factor agile values contributes more toward the success of DW/BIA development.

Author(s): XiaochuangYao– Mohamed F.MokbelLouaiAlarabiAhmedEldawy_JianyuYan-WenjuYun– LinLi

Year: 2017

Published: Computers & Geosciences, Volume 106, September 2017, Pages 60-67

 

Abstract:

Spatial data partitioning (SDP) plays a powerful role in distributed storage and parallel computing for spatial data. However, due to skew distribution of spatial data and varying volume of spatial vector objects, it leads to a significant challenge to ensure both optimal performance of spatial operation and data balance in the cluster. To tackle this problem, we proposed a spatial coding-based approach for partitioning big spatial data in Hadoop. This approach, firstly, compressed the whole big spatial data based on spatial coding matrix to create a sensing information set (SIS), including spatial code, size, count and other information. SIS was then employed to build spatial partitioning matrix, which was used to spilt all spatial objects into different partitions in the cluster finally. Based on our approach, the neighbouring spatial objects can be partitioned into the same block. At the same time, it also can minimize the data skew in Hadoop distributed file system (HDFS). The presented approach with a case study in this paper is compared against random sampling based partitioning, with three measurement standards, namely, the spatial index quality, data skew in HDFS, and range query performance. The experimental results show that our method based on spatial coding technique can improve the query performance of big spatial data, as well as the data balance in HDFS. We implemented and deployed this approach in Hadoop, and it is also able to support efficiently any other distributed big spatial data systems .

Author(s): ZhengzhongShi- GangWang

Year: 2018

Published: The Journal of High Technology Management Research, Volume 29, Issue 2, November 2018, Pages 141-150

 

Abstract:

 

Technology advancements in cloud computing, big data systems, No-SQL database, cognitive systems, deep learning, and other artificial intelligence techniques make the integration of traditional ERP transaction data and big data streaming from various social media platforms and Internet of Things (IOTs) into a unified analytics system not only feasible but also inevitable. Two steps are prominent for this integration. The first, coined as forming the big-data ERP, is the integration of traditional ERP transaction data and the big data and the second is to integrate the big-data ERP with business analytics (BA). As ERP implementers and BA users are facing various challenges, managers responsible for this big-data ERP-BA integration are also seriously challenged. To help them deal with these challenges, we develop the SIST model (including Strategic alignment, Intellectual and Social capital integration, and Technology integration) and propose that this integration is an evolving portfolio with various maturity levels for different business functions, likely leading to sustainable competitive advantages.

نویسنده (گان): پریساحسنی زاده, صنم یحیی پور و رامین صفا

سال انتشار: ۱۳۹۷

ارائه شده در:  چهارمین کنفرانس ملی محاسبات توزیعی و پردازش داده های بزرگ

چکیده:

در دو دهه گذشته فناوری اطلاعات در پزشکی به طور گسترده ای مورد استفاده قرار گرفته است. رشد و افزایش سرعت همه گیری شبکه های مقیاس وسیع در سال های اخیر موجب تحولی عظیم در جنبه های مختلف زندگی بشر شده و تاثیر این فناوری بر علوم و کسب وکار موجب ظهور حیطه های جدیدی همچون دولت الکترونیک، آموزش الکترونیک و سلامت الکترونیک شده است. سلامت الکترونیک یک زمینه جدید و روبه رشد از تلاقى اطلاع رسانى پزشکی، سلامت عمومى و فناوری اطلاعات است که امروزه شاهد تحقیقات گسترده ای در حوزه تحلیل داده های حاصل از آن هستیم. کلان داده اصطلاحی برای مجموعه داده های حجیم، بزرگ و متنوع با ساختاری پیچیده است که شامل دشواری هایی برای ذخیره سازی، تحلیل، تصویرسازی و پردازش می باشد. تحلیل کلان داده راه و روش مدیریت در حوزه های متفاوت از جمله مراقبت سلامت را تغییر داده و فرصت های امیدوار کننده ای را به وجود آورده است. بطور کلی تجزیه و تحلیل داده ها و معماری سیستم های مراقبت سلامت می تواند به کاهش هزینه های درمان، پیش بینی بیماری های همه گیر و بهبود کیفیت زندگی کمک کند. در این مقاله پس از مروری بر مفاهیم پایه، معماری و چالش های بهره گیری از کلان داده در حوزه درمان و سلامت الکترونیک مورد بحث قرار می گیرد.

 

نویسنده (گان): امین قربانی

سال انتشار: ۱۳۹۷

ارائه شده در:  کنفرانس سالانه مدیریت و اقتصاد کسب و کار

چکیده:

شبکه های عصبی پرسپترون در حل مسایل مهندسی و سیستم های هوشمند سبب گرایش به ابداع روش های مختلف در آموزش شبکه های عصبی شده است. متداول ترین روش آموزش شبکه های عصبی روش پس انتشار حتی از که می تواند برای گردآوری، یکپارچه سازی، تحلیل و قابل دسترس کردن داده ها و طبقه بندی آن ها مورد استفاده قرار گیرد. تکنیک ها و ابزارهای شبکه های عصبی مصنوعی به صاحبان کسب و کار این امکان را می دهد که بتواند نیازهای خود و مشتریان خود را بهتر درک کنند لذا هوشمند سازی کسب و کار با روش های شبکه های عصبی مصنوعی منجر به کاهش هزینه ها می شود. یکی از مشکلات بزرگ کسب و کارها حجم عظیم داده های خام می باشد که قابل استناد نمی باشد و استفاده از الگوریتم های شبکه های عصبی امکان طبقه بندی کردن داده ها را فراهم می نماید.

 

نویسنده (گان): آسیه میرکازهی ریگی

سال انتشار: ۱۳۹۴

ارائه شده در:  کنفرانس سالانه مدیریت و اقتصاد کسب و کار

چکیده:

در دنیای به شدت رقابتی امروز، مدیران برای پیشبرد محصول و خدمات سازمان ها در میدان رقابت، نیازمند راهبردی جهت منحصربفرد شدن هستند. به سخنی دیگر، داشتن ابزاری جهت متمایز سازی سازمان و محصولات از رقبا و محصولاتشان از تکنیک ها و ابزارهای حمایت گر مدیران ارشد و مدیرانسازمان منطقه ازاد ، جهت اخذ تصمیم به موقع و سریع در میان انبوه اطلاعات و داده های گوناگون، سیستم هوش تجاری (BI) است. هدف از این پژوهشارزیابی و بررسی تاثیرهوش تجاری بر عملکرد سازمان منطقه ازاد می باشد. پژوهش حاضر از نوع کاربردی بوده و تحلیلی توصیفی می باشد. ابزار جمع آوریاطلاعات کتابخانه ای است. با مقایسه ی مطالعات قبلی می توان استنباط نمود که نیازهای مدیران از طریق ابزارهای هوش تجاری پاسخ داده می شود.در نتیجه ، بکارگیری سیستم هوش تجاری در یک سازمان در جهت تحلیل و پیش بینی سریع حجم وسیع اطلاعات و تبدیل آن ها به دانش، به مدیران سازمان منطقه ازاد امکان دستیابی به اهداف سازمان نظیر داشتن مزیت رقابتی، حفظ عملکردی مثبت و مستمر و تصمیم گیری بهنگام و صحیح را می دهد که گرفتن تصمیمات صحیح و به موقع در سازمان می تواند موفقیت آن را در عرصه ی رقابت تضمین نماید

 

نویسنده (گان): صلاح رضایی- سید جواد میر عابدینی- عطاءالله ابطحی

سال انتشار: ۱۳۹۷

ارائه شده در: فصل نامه مطالعات مدیریت کسب و کار دانشگاه علامه طباطبایی، مقاله ۲، دوره ۶، شماره ۲۳، بهار ۱۳۹۷، صفحه ۳۳-۸۱

چکیده:

اگرچه بسیاری از سازمان‌ها به استقرار و استفاده از سیستم‌های هوشمندی کسب‌وکار روی آورده­اند؛ اما همه آن‌ها در پیاده‌سازی این سیستم‌ها موفق نبوده­اند. تحقیق حاضر به بررسی جامع عوامل تأثیرگذار بر فرآیند پیاده­سازی اثربخش این سیستم‌ها در صنعت بانکداری ایران پرداخته است. این تحقیق از نظر هدف، یک پژوهش کاربردی و به لحاظ استراتژی اجرا، یک پژوهش پیمایشی محسوب می‌شود؛ همچنین بر اساس طرح پژوهش و نحوۀ گردآوری داده­ها، پژوهش حاضر از نوع توصیفی است که برای گردآوری اطلاعات روش‌های مطالعه اسنادی و میدانی بکار گرفته شده است. جامعه آماری این پژوهش، شامل متخصصان و خبرگان حوزه فناوری اطلاعات و فعال در پیاده­سازی راهکارهای هوشمندی کسب‌وکار در صنعت بانکداری ایران است. در این تحقیق ابتدا با استفاده از روش کتابخانه­ای به بررسی گسترده­ ادبیات موضوع پرداخته شده که نتیجه آن تهیه چارچوب اولیه عوامل مؤثر بر پیاده‌سازی هوشمندی کسب‌وکار و معیارهای اثربخشی هوشمندی کسب‌وکار بوده است. سپس با استفاده از این چارچوب اولیه و اخذ نظرات خبرگان با رویکرد تکنیک دلفی فازی، عوامل کلیدی مؤثر بر فرآیند پیاده‌سازی هوشمندی کسب‌وکار و معیارهای مهم اثربخشی هوشمندی کسب‌وکار در صنعت بانکداری ایران شناسایی شده و در نهایت مدل پیاده‌سازی اثربخش هوشمندی کسب‌وکار ارائه شده است. در ادامه تحقیق با استفاده از تحلیل عاملی تأییدی و آزمون‌های آماری به اعتبارسنجی مدل پرداخته شد. بر اساس نتایج تحقیق، ابعاد مدل پیاده­سازی اثربخش هوشمندی کسب‌وکار در صنعت بانکداری ایران شامل ۱۰ بعد: سازمانی، انسانی، کیفیت داد، محیطی، قابلیت سیستم، راهبردی، کیفیت سرویس، زیرساخت فنی و مدیریتی و اثربخشی هوشمندی کسب‌وکار است.

 

نویسنده (گان): ترانه عنایتی- محمد صالحی-  طیبه جلالی

سال انتشار: ۱۳۹۷

ارائه شده در: فصل نامه پژوهش در نظام های آموزشی، مقاله ۲۱، دوره ۱۲، ویژه‌نامه، بهار ۱۳۹۷، صفحه ۳۶۱-۳۷۸

چکیده:

این پژوهش با هدف ارائه مدل جهت تبیین تأثیر هوش‌های رقابتی و تجاری بر تجاری‌سازی ایده‌ها با تأکید بر مزیت رقابتی در دانشگاه‌های نسل سوم انجام ‌شده است. پژوهش حاضر باهدف کاربردی و با رویکرد ترکیبی (آمیخته) با طرح اکتشافی انجام شد.جامعه آماری در بخش کیفی اعضای هیئت‌علمی دانشگاه بودند که با روش نمونه‌گیری هدفمند و با توجه به قانون اشباع ۱۸ نفر انتخاب شدند. جامعه آماری در بخش کمی اعضای هیئت‌علمی رسمی و مدرسین مدعو(غیررسمی) دانشگاه در شهر مشهد شامل ۲۵۷۲ نفر بودند که با استفاده از فرمول کوکران و روش نمونه‌گیری طبقه‌ای تعداد ۳۳۵ نفر از آن‌ها به‌عنوان حجم نمونه در نظر گرفته شدند.ابزار گردآوری داده‌ها در بخش کیفی مصاحبه‌های نیمه ساختاریافته بود که برای حصول اطمینان از روایی بخش کیفی و به‌منظور اطمینان خاطر از دقیق بودن یافته‌ها از دیدگاه پژوهشگر، از نظرات اساتید و خبرگان آشنا با این حوزه و متخصصان دانشگاهی علی‌الخصوص در حوزه کارآفرینی استفاده شد. در بخش کمی نیز به‌منظور گرداوری داده‌ها از ۴ پرسشنامه استفاده شد.برای محاسبه روایی پرسشنامه‌ها از روایی محتوا و سازه استفاده شد. روایی محتوایی پرسشنامه‌ها توسط خبرگان دانشگاه مورد تائید قرار گرفت. برای بررسی روایی سازه، از دو معیار روایی همگرا و واگرا استفاده شد. نتایج به‌دست‌آمده از بارهای عاملی گویه‌های هر عامل نشان داد، کلیه گویه­ها دارای بار عاملی بیش از ۴/۰ و میانگین واریانس استخراج‌شده، بالای ۵/۴ بودند، شرط AVE> 5/0 برای همه متغیرها برقرار است لذا روایی همگرا این متغیرها تائید شد. علاوه بر این، مقادیر جذر میانگین واریانس استخراج‌شده بیشترین مقدار را نشان می‌داد که بیانگر وجود روایی واگرا در بین متغیرهای پژوهش بود. پایایی و پایایی ترکیبی پرسشنامه ها بزرگ‌تر از ۵/۰ را نشان داد. برای تجزیه‌وتحلیل داده‌های بخش کیفی از تحلیل محتوا برای همه متغیرها با مقادیر بالای ۷/۰ استفاده شد، جهت تجزیه‌وتحلیل داده‌ها در بخش آمار توصیفی از جداول فراوانی و درصد فراوانی، میانگین و انحراف استاندارد و در بخش آمار استنباطی، از آزمون کولموگروف-اسمیرنوف، آزمون‌های t تک نمونه‌ای و مستقل، تحلیل عاملی اکتشافی و آزمون معادلات ساختاری استفاده شد و با استفاده از نرم‌افزار SPSS و Smart Pls تحلیل شد. نتایج نشان داد که: همه ابعاد و مؤلفه‌های متغیرها دارای بار عاملی بالای ۵/۰ هستند. همچنین نتایج حاصل از تحلیل عامل تأییدی نشان داد که هوش رقابتی با ضریب تأثیر ۸۹۷/۰، هوش تجاری با ضریب تأثیر ۶۴۹/۰ بر دانشگاه کارآفرین تأثیر مثبت و معناداری دارند ولی مزیت رقابتی با ضریب تأثیر ۱۹۶/۰ تأثیری ندارد مدل ارائه‌شده با برآورد برازش کلی GOF دارای برازش مناسب است و مؤلفه‌های حاصل در این پژوهش برای هوش رقابتی در بعد زمینه(آگاهی و دانش و اطلاعات داخلی ،زیرساخت و فناوری) و در بعد فرایند(جمع‌آوری، نگهداری و توسعه اطلاعات،برنامه‌ریزی و تمرکز)و برای هوش تجاری مؤلفه‌های قابلیت‌های تحلیلی ،کیفیت محتوای اطلاعات،استفاده از اطلاعات در فرآیند تصمیم‌گیری،فرهنگ تصمیم‌گیری تحلیلی و مؤلفه‌های شایستگی‌های منحصربه‌فرد و قابلیت حفظ و نگهداری در متغیر مزیت رقابتی تائید گردید.در متغیر دانشگاه کارآفرین ۷ مؤلفه حاکمیت و اداره دانشگاه،ساختار و طرح سازمانی، قدرت نفوذ، مدیریت ذینفعان و ارزش‌های جامعه، مرکز رشد و تجاری‌سازی، بین‌المللی سازی ، حمایت و آموزش کارآفرینانه سرمایه‌گذاری تائید گردید.

 

Author(s): EduardoColangelo– ThomasBauernhansl

Year: 2016

Published: Procedia CIRP, Volume 57, 2016, Pages 276-280

 

Abstract:

 

Data is everywhere. Both, machines and men leave a digital shadow behind, which, for some means the success or failure of their business. Enterprises strive to make the most of this scattered, diverse and ever growing data, in order to obtain information they can apply to the decision-making processes. But, apart from the known and researched technical issues of volume, variety and velocity; more essential issues have to be addressed. Namely, how does an enterprise find the analytical model it needs to obtain the information it desires? From simple regression analyses to artificial intelligence, the variety in which data can be analyzed is immense. Involving specialist and consultants is time-consuming, needs effort and is usually too expensive, especially for SMEs.

This paper discusses the current options in the usage of analytics by enterprises as well as the existing challenges and elaborates recommendations for the future. Special focus is put on customer-oriented analytics by means of analytical services. In these, the building blocks of analytics are modularized in three layers: Data Interpretation & Cleansing Layer, Data Processing Layer, and Data Visualization Layer. This modularization allows building analytics in a standardized manner. Such services aim at reducing the gap between the holders of expert knowledge and the users of analytics. This is achieved by placing the attention on obtaining the desired information (choosing from a portfolio of analytics) instead of solving fundamental challenges, already addressed by the respective modules.

 

 

Author(s): ChinuSingla– SakhiKaushal— AmandeepVerma- HarishKumar

Year: 2018

Published: Intelligent Data-Centric Systems, Pages 147-157, 2018

 
 

Abstract:

 
 

Due to technological advancement, clouds are becoming an important platform for processing different multimedia applications. These high performance environments emphasize the role of Information and Communication Technology (ICT) which is essential for the survival of global business to achieve better system design and operational objectives. The development of cloud computing represents a fundamental change in cloud and ICT services for multimedia applications with more functionality and increasing number of users. As multimedia data comprises of images, video, audio, text and these applications requires fast speed and large storage for transferring data, thus it is a crucial issue to choose best cloud services which meets all the requirements of the users for storing and managing multimedia data in heterogeneous mobile environment. The aim of this paper is to propose computational intelligence decision making model that can enable users to use cloud services during mobility accurately, cost effectively and in systematic way. So, this paper proposes a Hybrid Computational Intelligence Decision Making (HCIDM) model for multimedia cloud based services using Fuzzy Delphi Method (FDM) and Fuzzy Analytic Hierarchy Process (FAHP). FDM approach is used to select the list of different decision-making factors to solve the fuzziness of common understanding of different expert opinions. A FAHP approach is then proposed to determine the importance of decision making criteria’s and to select the best cloud service for migrating large multimedia applications based on the predetermining weights of decision factors. In this paper, the FDM and FAHP are used as the hybrid computational intelligence decision making techniques for best cloud path selection and shows optimal results when it compared with existing techniques that uses AHP and Fuzzy TOPSIS method.

نویسنده (گان): بهنوش زارعی – ژاله زارعی

سال انتشار: ۱۳۹۷

ارائه شده در: فصل نامه علمی و پژوهشی دانشگاه ابن سینا، مقاله ۶، دوره ۷، شماره ۲۵، بهار ۱۳۹۷، صفحه

چکیده:

کلید موفقیت تجاری برای بسیاری از بانک‌ها، استفاده صحیح از داده‌ها جهت اخذ تصمیمات بهتر، سریع‌تر و بدون نقص می‌باشد. بانک‌ها برای رسیدن به این هدف نیازمند استفاده از ابزارهای قوی و کارآمد مانند هوش تجاری به‌عنوان کاتالیزور مثبت هستند که می‌تواند این مؤسسات را در مکانیزه نمودن وظایف تحلیل، تصمیم‌سازی، تدوین استراتژی و پیش‌بینی یاری رساند. به‌عبارتی، هدف استفاده از هوش تجاری در این نهادها، گردآوری، پردازش و تحلیل حجم وسیعی از داده‌ها و تبدیل آن‌ها به ارزش تجاری مؤثر در تصمیم‌گیری از طریق ایجاد بستر گزارشات هوشمند تحلیلی است. لذا این مطالعه به‌دنبال پاسخ به این پرسش است که آیا عملیاتی کردن هوش تجاری و بهره‌گیری از کاربردهای آن می‌تواند زمینه افزایش عملکرد مالی بانک‌های ایران را فراهم کند؟ برای انجام این تحقیق ابتدا باید هوش تجاری به‌صورت شاخص کمی تعریف شود. برای کمی نمودن هوش تجاری از تحلیل مؤلفه‌های اصلی براساس رویکردهای ویکسوم و همکاران (۲۰۰۸) استفاده شد. از سوی دیگر، بازده دارایی، بازده سرمایه، نسبت وام به دارایی و نسبت هزینه به درآمد به‌عنوان نماینده‌ای از شاخص‌های سلامت مالی بانک‌ها برای بیان عملکرد مالی بانک‌ها مورد استفاده قرار گرفت. جامعه آماری در این تحقیق، جامعه آماری در این تحقیق شامل ۳۰ بانک­ ایران اعم از دولتی، خصوصی، تخصصی و بانک‌های خصوصی شده است. یافته‌های تحقیق نشان می‌دهد هوش تجاری در دوره زمانی ۱۳۸۵-۱۳۹۳ با تواتر سالیانه بر بازده دارایی و نسبت وام به دارایی اثر مثبت و معنی‌دار داشته و همچنین با یک‌سال وقفه زمینه افزایش بازده سرمایه را فراهم می‌آورد. از سوی دیگر، این فناوری می‌تواند نسبت هزینه به درآمد را کاهش دهد

 

نویسنده (گان): حسین توکلی- فرزاد آب سیه- میلاد علی قارداشی

سال انتشار: ۱۳۹۷

ارائه شده در: دومین کنفرانس ملی دانش و فناوری علوم مهندسی ایران

چکیده:

دنیای امروز با تغییرات فزاینده ای همراه است که نرخ و شتاب این تغییرات باور نکردنی است و افراد، سازمان ها و جوامع را به شکلهای مختلف تحت تاثیر خود قرار می دهد. ظهور فناوری اطلاعات وارتباطات و هوش تجاری، از جمله مهمترین این تغییرات می باشد. درصورتی که بتوان چالش ها و موانع پیاده سازی هوش تجاری راشناسایی و راهکارهای مناسب برای رفع آنها را اتخاذ کرد، پیاده سازی آن مزایای متعددی را برای سازمان به همراه خواهد داشت. یکی ازمهمترین این چالش ها، پذیرش و استفاده از هوش تجاری است که در صنعت گردشگری کشور قابل مشاهده است. این پژوهش بهشناسایی و تحلیل عوامل موثر بر پذیرش هوش تجاری در صنعت گردشگری ایران بر اساس نظرسنجی از خبرگان، مدیران و کارکنان این صنعت پرداخته و بر اساس مدل پذیرش فناوری دیویس، مدل پذیرش و استفاده از هوش تجاری در این صنعت ارایه می شود.

نویسنده (گان): مهدیه اسکافی _ بهنام عبدی

سال انتشار: ۱۳۹۵

ارائه شده در: اولین همایش بین المللی پژوهش های نوین در مطالعات مدیریت

چکیده:

دنیای امروز با تغییرات فزاینده ای همراه است که نرخ و شتاب این تغییرات باور نکردنی است و افراد، سازمان ها و جوامع را به شکلهای مختلف تحت تاثیر خود قرار می دهد. ظهور فناوری اطلاعات وارتباطات و هوش تجاری، از جمله مهمترین این تغییرات می باشد. درصورتی که بتوان چالش ها و موانع پیاده سازی هوش تجاری راشناسایی و راهکارهای مناسب برای رفع آنها را اتخاذ کرد، پیاده سازی آن مزایای متعددی را برای سازمان به همراه خواهد داشت. یکی ازمهمترین این چالش ها، پذیرش و استفاده از هوش تجاری است که در صنعت گردشگری کشور قابل مشاهده است. این پژوهش بهشناسایی و تحلیل عوامل موثر بر پذیرش هوش تجاری در صنعت گردشگری ایران بر اساس نظرسنجی از خبرگان، مدیران و کارکنان این صنعت پرداخته و بر اساس مدل پذیرش فناوری دیویس، مدل پذیرش و استفاده از هوش تجاری در این صنعت ارایه می شود.

Author(s): CarmineD’Arconte

Year: 2018

Published: Procedia Computer Science, Volume 131, 2018, Pages 45-57

 

Abstract:

 

With the expression, “Business Intelligence” we refer to intelligent technologies that may help companies improve their performances and have better possibilities to survive and develop. Anyway, in this regard, we sometimes have a double negative impression, namely that on one side there is a certain lack of practical indications on how to apply this in everyday companies’ life and, secondly, that it is often not taken into due consideration the extremely reduced size of companies, the limited entrepreneurial competences and the scarce availability of technologies. In this paper, apart from highlighting the role of Business Intelligence in practice, we try to find a way to apply it also in small size companies focusing on two critical aspects, namely customer’s profitability and their satisfaction level that, especially if considered in their reciprocal interaction, may have a great impact on companies’ outcomes though using simple technologies.

 

 

Author(s): Parama FadliKurnia- Suharjito

Year: 2018

Published: Procedia Computer Science, Volume 135, 2018, Pages 5-14

 

Abstract:

 

Social media is a platform to share information that is very liked by everyone nowadays because some of the facilities that make it easier for us to communicate with each other, share documents, chat and even create a community. In addition, we can also analyze the content of social media by using several methods in data mining, so that we can get new the information to support decision making that can bring benefits to individuals and companies. The purpose of this research, to create a business intelligence dashboard to observe the performance of each Topic or channel of news posted to social media accounts such as Facebook and Twitter. Topical performance in social media is the number of Topics in articles posted to social media getting like, share, comment etc. To be able to know the Topic of a news post in social media, used some text classification techniques such as Naive Bayes, SVM and Decision Tree. The comparative results of the algorithms are taken which has the best accuracy of SVM for subsequent implementation in the data warehouse. Meanwhile, the business intelligence dashboard data source will be sourced from the data warehouses that have been made before.

 

 

 

Author(s): IsraelGonzález- CarrascoJose LuisJiménez-Márquez– Jose LuisLópez- CuadradoBelénRuiz-Mezcua

Year: 2018

Published: International Journal of Accounting Information Systems, Volume 29, June 2018, Pages 37-58

 

Abstract:

 
 

Executives see technology, data and analytics as a transforming force in business. Many organizations are therefore implementing business intelligence & analytics (BI&A) technologies to support reporting and decision-making. Traditionally, management accounting is the primary support for decision-making and control in an organization. As such, it has clear links to and can benefit from applying BI&A technologies. This indicates an interesting research area for accounting and AIS researchers. However, a review of the literature in top accounting and information systems journals indicates that to date, little research has focused on this link. This article reviews the literature, points to several research gaps and proposes a framework for studying the relationship between BI&A and management accounting.

 

Author(s): KaterinaBožič-– VladoDimovski

Year: 2019

Published: Information Sciences, Volume 485, June 2019, Pages 319-346

 

Abstract:

 
 

Firms continuously report increased competitive value gains from the use of business intelligence and analytics (BI&A), however, little is known about how insights from BI&A are transformed to added value to date. We have conducted fourteen in-depth, semi-structured interviews with a sample of informants in CEO positions, IT managers, CIO, Heads of R&D, as well as Market Managers from nine medium or large-sized European firms. Applying the absorptive capacity’s theoretical lens, we have provided evidence that absorptive capacity’s capabilities are an underlying foundation in the process of transforming BI&A triggered insights into valuable knowledge. Moreover, this process is supported by technological, human, and relationship assets.

 

Author(s): IsraelGonzález- CarrascoJose LuisJiménez-Márquez– Jose LuisLópez- CuadradoBelénRuiz-Mezcua

Year: 2019

Published: Information Sciences, Volume 485, June 2019, Pages 319-346

 

Abstract:

 

In their daily business, bank branches should register their operations with several systems in order to share information with other branches and to have a central repository of records. In this way, information can be analysed and processed according to different requisites: fraud detection, accounting or legal requirements. Within this context, there is increasing use of big data and artificial intelligence techniques to improve customer experience. Our research focuses on detecting matches between bank operation records by means of applied intelligence techniques in a big data environment and business intelligence analytics. The business analytics function allows relationships to be established and comparisons to be made between variables from the bank’s daily business. Finally, the results obtained show that the framework is able to detect relationships between banking operation records, starting from not homogeneous information and taking into account the large volume of data involved in the process.

 

 

Author(s): XunXu– XuequnWang– YibaiLi- MohammadHaghighi

Year: 2017

Published: International Journal of Information Management, Volume 37, Issue 6, December 2017, Pages 673-683

 

Abstract:

 

With the rapid development of information technology, customers not only shop online—they also post reviews on social media. This user-generated content (UGC) can be useful to understand customers’ shopping experiences and influence future customers’ purchase intentions. Therefore, business intelligence and analytics are increasingly being advocated as a way to analyze customers’ UGC in social media and support firms’ marketing activities. However, because of its open structure, UGC such as customer reviews can be difficult to analyze, and firms find it challenging to harness UGC. To fill this gap, this study aims to examine customer satisfaction and dissatisfaction toward attributes of hotel products and services based on online customer textual reviews. Using a text mining approach, latent semantic analysis (LSA), we identify the key attributes driving customer satisfaction and dissatisfaction toward hotel products and service attributes. Additionally, using a regression approach, we examine the effects of travel purposes, hotel types, star level, and editor recommendations on customers’ perceptions of attributes of hotel products and services. This study bridges customer online textual reviews with customers’ perceptions to help business managers better understand customers’ needs through UGC.

 

 

Author(s): Long-FeiChen

Year: 2019

Published: International Journal of Hospitality Management, Volume 77, January 2019, Pages 1-6

 

Abstract:

 

Stakeholders are increasingly aware of the potential of environmental performance to benefit their health; however, there is a paucity of sustainability studies addressing the relationship between corporate social responsibility (CSR) performance and the brand equity of hotel chains. Unlike traditional economics that treat undesired outputs such as carbon emissions as costless, this research presents an accurate, concise and clear empirical examination of hotel chain affiliation strategy through the Malmquist-Luenberger index to measure the brand competitiveness of the strategy while considering carbon emissions reduction using objective official panel data from Taiwan. The findings reveal that a group of hotel chains has a significantly higher average energy efficiency and branding value than those of a group of independent operators when holistic carbon emissions reduction is considered. Thus, this study encourages stakeholders to promote green hotel policies to independent hotel operators to achieve a higher brand value with lower carbon emissions and to adopt greater use of business intelligence to assist the decision-making of hotel operators in conformity with the United Nations (UN) Sustainable Development Goals (SDGs).

 

 

Author(s): YiZhou– ShubbhiTaneja– GautamDudeja– XiaoQin– JifZhang– MinghuaJiang– Mohammed I.Alghamdi

Year: 2018

Published: Future Generation Computer Systems, Volume 88, November 2018, Pages 40-54

 

Abstract:

 

With the exponential increase in cooling costs of large-scale data centers, thermal management must be adequately addressed. Recent trends have discovered one of the critical reasons behind the temperature rise turns out to be heat re-circulation within data center. In this study, we proposed a new resource- and thermal-aware scheduler in Hadoop clusters; our scheduler aims at minimizing peak inlet temperature across all nodes to reduce power consumption and cooling cost in data centers. The proposed dynamic scheduler makes job scheduling decisions based on current CPU/disk utilization and number of tasks running as well as the feedback given by all slave nodes at run-time. We deploy a thermal model to project respective temperature of each slave node in addition to neighbor’s heat contribution. The thermal-aware scheduler is integrated with the Hadoop’s scheduling mechanism. We test our schedulers by running a set of Hadoop benchmarks (e.g., WordCount, DistributedGrep, PI and TeraSort) under various temperature conditions, utilization thresholds, and cluster sizes. The experimental results show that our scheduler achieves an average inlet temperature reduction by 2.5 °C over the default FIFO scheduler; our scheduling solution saves approximately 15% of cooling cost with marginal performance degradation.

 

نویسنده (گان): یعقوب سنمی علمداری

سال انتشار: ۱۳۹۵

ارائه شده در: اولین همایش ملی نگرشی نوین در مهندسی برق و کامپیوتر

چکیده:

در عصر الکترونیکی، تعداد بسیاری از سازمان ها با مشکلات افزایش داده روبرو هستند و اندازه پایگاه داده های استفاده شده در شرکت های بسیار بزرگ امروزی با یک نرخ نمایی درحال رشد است. این داده ها از طریق منابع بسیاری مانند فرآیندهای تجاری،معاملات، سایت های شبکه های اجتماعی، وب سرورها و غیره تولید می شوند. از انجاییکه پیش از این بسیاری از شرکتها قادر به ذخیره سازی این حجم از داده ها نبودند و ابزار در دسترس، توانایی مدیریت این داده ها را در یک زمان قابل قبول نداشتند بنابراین فن آوری های جدید در زمینه بیگ دیتا با تسهیل نوآوری در خدمات و محصولات مدل های کسب و کار و حمایت از آن باعث بهبود عملکرد شدند. هدف از فن آوری بیگ دیتا به حداقل رساندن هزینه ها جهت بررسی ارزش داده ها میباشد. در این مقاله مروری بیگ دیتا و مفاهیم مرتبط با آن خواهیم داشت.

 

نویسنده (گان): محسن گرامی و نسترن قریبی

سال انتشار: ۱۳۹۶

ارائه شده در: کنفرانس ملی فناوری های نوین در مهندسی برق و کامپیوتر

چکیده:

در عصر داده های بزرگ با توجه به حجم بالای اطلاعات سازمان ها با اینکه با مشکلات فراوانی رو به رو بوده اند, با به کارگیری تحلیل داده های بزرگ تا حد زیادی توانسته اند کارایی خود را بهبود بخشند و با یکپارچه سازی اطلاعات در زنجیره تامین توسط مبحث محاسبات ابری و داده های بزرگ هماهنگی بین اجزا و بهبود ارتباطات را حاصل کند. این مقاله به ضرورت شناخت و درک داده های بزرگ در فرایند های کسب و کار و استفاده از اطلاعات یکپارچه در عصر فناوری پرداخته تا در این راستا بتوان در بخش های مختلف زنجیره تامین از جمله ارتباط با مشتری , بازاریابی, بهینه سازی موجودی و کنترل تامین کنندگان و پیش بینی تقاضا با استفاده از کاربرد های تحلیل بیگ دیتا به نتایج رضایت بخشی رسید. در این مقاله مباحث مربوط به ویژگی و کاربرد داده های بزرگ و عدم درک تحلیل داده های بزرگ توسط سازمانها مورد بررسی قرار گرفته و پیرو آن به ارایه مدل بلوغ می پردازد. در ادامه با بررسی چالش های پیش رو، توصیه هایی در این خصوص منتج خواهد گردید.

 

ویسنده (گان): نوید محمدرحیمی

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس بین المللی پژوهش در مهندسی، علوم و کنولوژی

چکیده:

هوش مصنوعی به عنوان زیرشاخه ای از علوم کامپیوترمحسوب می شود که ارتباط تنگاتنگی با دیگر علوم دارد. هدف این شاخه الگوبرداری از ذهن انسان و شبیه سازی عملکرد آن به منظور تجزیه و تحلیل مسایل و داده ها می باشد. برای دستیابی به یک الگویی عملکردی در زمینه هوش مصنوعی، بررسی و فهم موانع و مشکلات و همچنین زیرشاخه های هوش مصنوعی از قبیل هوش معنوی، هوش پیوندگرا، الگوهای عصبی و غیره یکی از ضروری ترین مراحل می باشد. لذا در این مطالعه به بررسی هوش مصنوعی و زیرشاخه های آن با هدف دستیابی به یک مدل تحلیل گر منطقی برپایه هوش طبیعی می پردازیم تا بتوانیم مسیر پژوهش دیگر محققین را در این زمینه هموار سازیم.

نویسنده (گان): سید علی اکبر هاشمی – حسن الوداری– محمد رضا دارایی– روح الله رازینی

سال انتشار: ۱۳۹۷

ارائه شده در: نشریه مدیریت حسایداری و اقتصاد، دوره ۶، شماره ۳ (پیاپی ۲۳)، تابستان ۱۳۹۷، صفحه ۴۹-۶۴

چکیده:

در سال‌های اخیر، زمانی که مدیران برای اتخاذ تصمیمات تجاری اختصاص می‌دهند به‌طور شدیدی کاهش یافته است. در این میان شناسایی اطلاعات مهمی که باید در لحظه مورد پایش قرار گیرد، چگونگی جمع‌آوری، یکپارچه‌سازی، نمایش و تحلیل این اطلاعات بیش‌ازپیش ضروری می‌نماید. داشبورد سازمانی، ابزاری است غنی از شاخص‌ها، گزارش‌ها و نمودارها که به‌صورت پویا عمل کرده تا مدیران با استناد به آن بتوانند در هرلحظه عملکرد سازمان را مشاهده نمایند. لیکن جهت بهره‌ور شدن داده‌ها، استفاده از منطق هوش تجاری اجتناب‌ناپذیر است. هوش تجاری سیستمی است که داده‌های مختلف، پراکنده و ناهمگون یک سازمان را یکپارچه و منسجم می‌کند و از طریق تشکیل پایگاه داده تحلیلی می‌تواند گزارش‌های تحلیلی را برای تصمیم‌گیری مدیران سازمان فراهم کند. این پژوهش با استفاده از مطالعه عمیق ادبیات موضوع، تعداد ۳۵۷ کد مربوط به توسعه داشبورد سازمانی با منطق هوش تجاری را شناسایی و با استفاده از روش‌های کیفی تحلیل مضمون و گروه کانونی این کدها را به ۲۴ مضمون پایه و ۷ مضمون سازمان دهنده تبدیل کرد. در مرحله بعد در دو مرحله مجرا با استفاده از روش مدل‌سازی ساختاری تفسیری به مدل‌سازی مضامین پایه و مضامین سازمان دهنده به‌طور مجزا پرداخته و با توجه به همخوانی دو مدل‌سازی اقدام به تلفیق دو مدل و ایجاد مدل نهایی توسعه داشبورد سازمانی با منطق هوش تجاری نموده است که می‌تواند نقشه راهی دقیق برای سازمان‌های دولتی جهت طراحی و پیاده‌سازی این سیستم باشد.

 

Author(s): RaissaUskenbayevaabuKuandykovYoung ImCho– TolganayTemirbolatova– Sauleamanzholova– DinaraKozhamzharova

Year: 2015

Published: Procedia Computer Science, Volume 56, 2015, Pages 145-149

 

Abstract:

 

The article offers a data integration model, which must be supported by a unified view of disparate data sources, management of integrity constraints, management of data manipulation and query executing operations, matching data from various sources, the ability to expand and set up new data sources. The proposed approach is the integration of Hadoop-based data and R, which is popular for processing statistical information. Hadoop database contains libraries, Distributed File System (HDFS), and resource management platform and implements a version of the MapReduce programming model for processing large-scale data. This model allows us to integrate various data sources at any level, by setting arbitrary links between circuit elements, constraints and operations.

 

Author(s): YiZhouShubbhTaneja_GautamudejaXiaoQinJifuZhang– MinghuaJiang– Mohammed I.Alghamdi

Year: 2019

Published: Future Generation Computer Systems, Volume 88, November 2018, Pages 40-54

 

Abstract:

With the exponential increase in cooling costs of large-scale data centers, thermal management must be adequately addressed. Recent trends have discovered one of the critical reasons behind the temperature rise turns out to be heat re-circulation within data center. In this study, we proposed a new resource- and thermal-aware scheduler in Hadoop clusters; our scheduler aims at minimizing peak inlet temperature across all nodes to reduce power consumption and cooling cost in data centers. The proposed dynamic scheduler makes job scheduling decisions based on current CPU/disk utilization and number of tasks running as well as the feedback given by all slave nodes at run-time. We deploy a thermal model to project respective temperature of each slave node in addition to neighbor’s heat contribution. The thermal-aware scheduler is integrated with the Hadoop’s scheduling mechanism. We test our schedulers by running a set of Hadoop benchmarks (e.g., WordCount, DistributedGrep, PI and TeraSort) under various temperature conditions, utilization thresholds, and cluster sizes. The experimental results show that our scheduler achieves an average inlet temperature reduction by 2.5 °C over the default FIFO scheduler; our scheduling solution saves approximately 15% of cooling cost with marginal performance degradation.

 

 

Author(s): WenTaiWu– WeiWeiLin– Ching-HsienHsuLiGangHe

Year: 2019

Published: Information Systems ,Volume 79, January 2019, Pages 32-43

 

Abstract:

MapReduce is a popular programming model for distributed processing of large data sets. Apache Hadoop is one of the most common open-source implementations of such paradigm. Performance analysis of concurrent job executions has been recognized as a challenging problem, at the same time, that may provide reasonably accurate job response time estimation at significantly lower cost than experimental evaluation of real setups. In this paper, we tackle the challenge of defining MapReduce performance model for Hadoop 2.x. While there are several efficient approaches for modeling the performance of MapReduce workloads in Hadoop 1.x, they could not be applied to Hadoop 2.x due to fundamental architectural changes and dynamic resource allocation in Hadoop 2.x. Thus, the proposed solution is based on an existing performance model for Hadoop 1.x, but taking into consideration architectural changes and capturing the execution flow of a MapReduce job by using queuing network model. This way, the cost model reflects the intra-job synchronization constraints that occur due the contention at shared resources. The accuracy of our solution is validated via comparison of our model estimates against measurements in a real Hadoop 2.x setup.

 

 

 

Author(s): WenTaiWu– WeiWeiLin– Ching-HsienHsuLiGangHe

Year: 2019

Published: Futur Generation Computer Systems , Volume 86, September 2018, Pages 1351-1367

 

Abstract:

 

As the demands for big data analytics keep growing rapidly in scientific applications and online services, MapReduce and its open-source implementation Hadoop gained popularity in both academia and enterprises. Hadoop provides a highly feasible solution for building big data analytics platforms. However, defects of Hadoop are also exposed in many aspects including data management, resource management, scheduling policies, etc. These issues usually cause high energy consumption when running MapReduce jobs in Hadoop clusters. In this paper, we review the studies on improving energy efficiency of Hadoop clusters and summarize them in five categories including the energy-aware cluster node management, energy-aware data management, energy-aware resource allocation, energy-aware task scheduling and other energy-saving schemes. For each category, we briefly illustrate its rationale and comparatively analyze the relevant works regarding their advantages and limitations. Moreover, we present our insights and figure out possible research directions including energy-efficient cluster partitioning, data-oriented resource classification and provisioning, resource provisioning based on optimal utilization, EE and locality aware task scheduling, optimizing job profiling with machine learning, elastic power-saving Hadoop with containerization and efficient big data analytics on Hadoop. On one hand, the summary of studies on energy-efficient Hadoop presented in this paper provides useful guidance for the developers and users to better utilize Hadoop. On the other hand, the insights and research trends discussed in this work may inspire the relevant research on improving the energy efficiency of Hadoop in big data analytics.

Author(s): FangchaoXu- YgjianLiLi- panFeng

Year: 2018

Published: Scandinavian Journal of Management, Volume 34, Issue 2, June 2018, Pages 129-140

Abstract:

 

In these years, more and more manufacturers implement closed-loop operations and incorporate remanufacturing into its manufacturing system, which forms manufacturing-remanufacturing operations. To increase the efficiency of used product collection, many remanufacturers have established quality valuation system to acquire big data of used products. A quality-dependent acquisition process helps remanufacturers collect used products according to products’ actual condition and perceived value from the perspective of consumers, but may incur extra operation cost. This study aims to explore the influence of quality valuation big data system on manufacturers’ manufacturing/remanufacturing operation decisions. This paper studies a manufacturer which produces new products and remanufactures the returned products, and sells two kinds of products to the same market. We focus on quantity decisions on manufacturers’ manufacturing/remanufacturing operations. Focusing on the availability of big data of used products, two optimization models, fixed collection pricing mechanism and discriminatory collection pricing mechanism, are analyzed to explore the impact of quality big data of used products on firms’ manufacturing–remanufacturing operations. As the obtained conclusions, in both fixed and discriminatory collection pricing mechanisms, the manufacturer takes full/partial remanufacturing strategy under different conditions. And the manufacturer prefers different collection pricing mechanisms according to various levels of consumers’ perceived value of used products and the acquisition cost of big data.

 

 

Author(s): MahdiFahmideh– GhassanBeydoun

Year: 2019

Published: Computers & Industrial Engineering, Volume 128, February 2019, Pages 948-963

Abstract:

Context

The rapid prevalence and potential impact of big data analytics platforms have sparked an interest amongst different practitioners and academia. Manufacturing organisations are particularly well suited to benefit from data analytics platforms in their entire product lifecycle management for intelligent information processing, performing manufacturing activities, and creating value chains. This needs a systematic re-architecting approach incorportaitng careful and thorough evaluation of goals for integrating manufacturing legacy information systems with data analytics platforms. Furthermore, ameliorating the uncertainty of the impact the new big data architecture on system quality goals is needed to avoid cost blowout in implementation and testing phases.

Objective

We propose an approach for goal-obstacle analysis and selecting suitable big data solution architectures that satisfy quality goal preferences and constraints of stakeholders at the presence of the decision outcome uncertainty. The approach will highlight situations that may impede the goals. They will be assessed and resolved to generate complete requirements of an architectural solution.

Method

The approach employs goal-oriented modelling to identify obstacles causing quality goal failure and their corresponding resolution tactics. Next, it combines fuzzy logic to explore uncertainties in solution architectures and to find an optimal set of architectural decisions for the big data enablement process of manufacturing systems.

Result

The approach brings two innovations to the state of the art of big data analytics platform adoption in manufacturing systems: (i) A goal-oriented modelling for exploring goals and obstacles in integrating systems with data analytics platforms at the requirement level and (ii) An analysis of the architectural decisions under uncertainty. The efficacy of the approach is illustrated with a scenario of reengineering a hyper-connected manufacturing collaboration system to a new big data architecture.

 

نویسنده (گان): حکیم علی پور سیاهکلی, سحر و حامد فضل الله تبار

سال انتشار: ۱۳۹۳

ارائه شده در: اولین کنفرانس بین المللی مهندسی صنایع، مدیریت و حسابداری

چکیده:

هوش تجاری نقش حیاتی برای دستیابی به مزیت رقابتی در اقتصاد چالش برانگیزی که در آن هستیم، ایفا می کند. کسب و کارها با استفاده از هوش تجاری قادر به توسعه سیستم های اطلاعاتی مبتنی بر اطلاعات نهان هستند تا بینشی نسبت به کسب و کار ایجاد کنند که به آنها در اخذ تصمیمات سریع تر و قابل اعتمادتر کمک کند. در حالی که بسیاری از سازمان ها استفاده از هوش تجاری در بسیاری از نواحی کسب و کار خود آغاز کرده اند، اما آنها از مزایای آن در حوزه مدیریت منابع انسانی، غافل شده اند. در این مقاله از هوش تجاری در طراحی سیستم اطلاعاتی منابع انسانی استفاده شده است با ترکیب هوش تجاری و تجزیه و تحلیل داده ها در طراحی پروتکل های مدیریت منابع انسانی و استراتژی های پایگاه داده، سازمان ها می توانند به شناسایی و نگهداری افراد مناسب، آموزش آنان با مهارت های مناسب، تعیین حد مناسب، سازماندهی آنان در مسیر مناسب، اطمینان از جبران قابل رقابت، ارتقاء افراد مناسب به نقشهای مناسب، بپردازند و برای منابع انسانی می تواند مقدار ارزش قابل توجه بیشتری را ایجاد کند.

 

Author(s): Md. AhsanulHoque- Ahmad KamalHassan

Year: 2015

Published: Engineering Science and Technology, an International Journal, Volume 18, Issue 3, September 2015, Pages 351-360

Abstract:

Antenna alignment is very cumbersome in telecommunication industry and it especially affects the MW links due to environmental anomalies or physical degradation over a period of time. While in recent years a more conventional approach of redundancy has been employed but to ensure the LOS link stability, novel automation techniques are needed. The basic principle is to capture the desired Received Signal Level (RSL) by means of an outdoor unit installed on tower top and analyzing the RSL in indoor unit by means of a GUI interface. We have proposed a new smart antenna system where automation is initiated when the transceivers receive low signal strength and report the finding to processing comparator unit. Series architecture is used that include loop antenna, RCX Robonics, LabVIEW interface coupled with a tunable external controller. Denavit–Hartenberg parameters are used in analytical modeling and numerous control techniques have been investigated to overcome imminent overshoot problems for the transport link. With this novel approach, a solution has been put forward for the communication industry where any antenna could achieve optimal directivity for desired RSL with low overshoot and fast steady state response.

.

 

نویسنده (گان): اعظم مظفری – گروه مخابرات- پژوهشکده کنترل و مدیریت شبکه پژوهشگاه نیرو تهران

سال انتشار: ۱۳۹۳

ارائه شده در: بیست و نهمین کنفرانس بین المللی برق

چکیده:

با توجه به اهمیت شبکه های هوشمند در صنعت برق و لزوم پیاده سازی سیستم های مخابراتی با قابلیت های مورد نیاز صنعت برق و شبکه هوشمند، در این مقاله به بررسی تکنولوژی های مخابراتی قابل استفاده در شبکه های مختلف مخابراتی لایه های شبکه هوشمند پرداخته شده است. بر اساس نیازهای مخابراتی هر یک از شبکه های مخابراتی، در این مقاله به چگونگی ارزیابی و انتخاب سیستم های مخابراتی مختلف در شبکه های NAN/FAN اختصاص یافته است. برای دستیابی به این امر، از روش سلسله مراتبی AHP جهت مقایسه معیارهای فنی و اقتصادی بهره گرفته شده و با استفاده از نظر متخصصان صنعت برق به پارامترهای مهم و اساسی هر یک از تکنولوژی ها امتیاز داده شده و در نهایت سیستم مخابراتی بهینه بر اساس وزن پارامترهای تعیین شده انتخاب گردیده است. در این بررسی سیستم های مخابرات نوری، سیستم WiMAX مخابرات ماهواره ای، مخابرات سیمی شرکت مخابرات، با توجه به پارامترهای کارایی، قابلیت اطمینان، امنیت، هزینه و قابلیت کنترل مورد ارزیابی قرار گرفته و با استفاده از نرم افزار Expert Choice امتیازدهی شده اند. تکنولوژی مخابرات نوری در این ارزیابی، بالاترین امتیاز را کسب نموده و بهترین سیستم مخابراتی جهت کاربردهای شبکه هوشمند در شبکه های NAN/FAN معرفی گردیده است. البته با توجه به بسیاری از پارامترها از جمله وسعت جغرافیایی و نوع ارتباطات، تکنولوژی قابل استفاده در سیستم مخابرات نوری می تواند PDH ،SDH و یا FTTx باشد که در این مقاله به نحوه عملکرد آن ها نپرداخته است. در . در این مقاله، بسترهای مخابراتی مناسب در شبکه های مختلف مورد نیاز شبکه هوشمند بیان شده و راهکار انتخاب تکنولوژی مخابراتی مناسب در شبکه های NAN/FAN ارائه شده است تا بتوان مراحل مذکور را جهت انتخاب یک سیستم مخابراتی بهینه در شرایط متفاوت تکرار نمود. تجاری اجتناب‌ناپذیر است. هوش تجاری سیستمی است که داده‌های مختلف، پراکنده و ناهمگون یک سازمان را یکپارچه و منسجم می‌کند و از طریق تشکیل پایگاه داده تحلیلی

 

Author(s): YunhePan- YunTan_ XiaolongLiu_ DedaoGu_ GangHua

Year: 2016

Published: Computers, Environment and Urban Systems, Available online 14 November 2018

Abstract:

This study provides a definition for urban big data while exploring its features and applications of China’s city intelligence. The differences between city intelligence in China and the “smart city” concept in other countries are compared to highlight and contrast the unique definition and model for China’s city intelligence in this paper. Furthermore, this paper examines the role of urban big data in city intelligence by showing that it not only serves as the cornerstone of this trend as it also plays a core role in the diffusion of city intelligence technology and serves as an inexhaustible resource for the sustained development of city intelligence. This study also points out the challenges of shaping and developing of China’s urban big data. Considering the supporting and core role that urban big data plays in city intelligence, the study then expounds on the key points of urban big data, including infrastructure support, urban governance, public services, and economic and industrial development. Finally, this study points out that the utility of city intelligence as an ideal policy tool for advancing the goals of China’s urban development. In conclusion, it is imperative that China make full use of its unique advantages—including using the nation’s current state of development and resources, geographical advantages, and good human relations—in subjective and objective conditions to promote the development of city intelligence through the proper application of urban big data.

 

Author(s): Ruth C.CarlosMD, MS- Charles E.KahnMD, MS- SafwanHalabiMD

Year: 2018

Published: Applied Energy, Volume 202, 15 September 2017, Pages 685-699

Abstract:
EnergyPlus is the U.S. Department of Energy’s flagship whole-building energy simulation engine and provides extensive simulation capabilities. However, the computational cost of these capabilities has resulted in annual building simulations that typically requires 2–۳ min of wall-clock time to complete. While EnergyPlus’s overall speed is improving (EnergyPlus 7.0 is 25–۴۰% faster than EnergyPlus 6.0), the overall computational burden still remains and is the top user complaint. In other engineering domains, researchers substitute surrogate or approximate models for the computationally expensive simulations to improve simulation and reduce calibration time. Previous work has successfully demonstrated small-scale EnergyPlus surrogate models that use 10–۱۶ input variables to estimate a single output variable. This work leverages feed forward neural networks and Lasso regression to construct robust large-scale EnergyPlus surrogate models based on 3 benchmark datasets that have 7–۱۵۶ inputs. These models were able to predict 15-min values for most of the 80–۹۰ simulation outputs deemed most important by domain experts within 5% (whole building energy within 0.07%) and calculate those results within 3 s, greatly reducing the required simulation runtime for relatively close results. The techniques shown here allow any software to be approximated by machine learning in a way that allows one to quantify the trade-off of accuracy for execution time.

 

Author(s): Ruth C.CarlosMD, MS- Charles E.KahnMD, MS- SafwanHalabiMD

Year: 2018

Published: Journal of the American College of Radiology, Voume 15, Issue 3, Part B, March 2018, Pages 497-498

Abstract:
In the article titled “Data Science: Big Data, Machine Learning, and Artificial Intelligence” by Ruth C. Carlos, Charles E. Kahn, and Safwan Halabi, which was published in the March issue of JACR (2018;15:497-498), the name of Armin Moehrle was misspelled. The error is regretted. The online version has been corrected and shows the accurate spelling for Armin Moehrle.

 

Author(s): MehdiMohammadpoor- FarshidTorabi

Year: 2018

Published: Petroleum, Available online 1 December 2018

Abstract:
This paper reviews the utilization of Big Data analytics, as an emerging trend, in the upstream and downstream oil and gas industry. Big Data or Big Data analytics refers to a new technology which can be employed to handle large datasets which include six main characteristics of volume, variety, velocity, veracity, value, and complexity. With the recent advent of data recording sensors in exploration, drilling, and production operations, oil and gas industry has become a massive data intensive industry. Analyzing seismic and micro-seismic data, improving reservoir characterization and simulation, reducing drilling time and increasing drilling safety, optimization of the performance of production pumps, improved petrochemical asset management, improved shipping and transportation, and improved occupational safety are among some of the applications of Big Data in oil and gas industry. Although the oil and gas industry has become more interested in utilizing Big Data analytics recently, but, there are still challenges mainly due to lack of business support and awareness about the Big Data within the industry. Furthermore, quality of the data and understanding the complexity of the problem are also among the challenging parameters facing the application of Big Data.

 

Author(s): UthayasankarSivarajah- Muhammad MustafaKamal- ZahirIrani- VishanthWeerakkody

Year: 2017

Published: Journal of Business Research, Volume 70, January 2017, Pages 263-286

Abstract:
Big Data (BD), with their potential to ascertain valued insights for enhanced decision-making process, have recently attracted substantial interest from both academics and practitioners. Big Data Analytics (BDA) is increasingly becoming a trending practice that many organizations are adopting with the purpose of constructing valuable information from BD. The analytics process, including the deployment and use of BDA tools, is seen by organizations as a tool to improve operational efficiency though it has strategic potential, drive new revenue streams and gain competitive advantages over business rivals. However, there are different types of analytic applications to consider. Therefore, prior to hasty use and buying costly BD tools, there is a need for organizations to first understand the BDA landscape. Given the significant nature of the BD and BDA, this paper presents a state-of-the-art review that presents a holistic view of the BD challenges and BDA methods theorized/proposed/employed by organizations to help others understand this landscape with the objective of making robust investment decisions. In doing so, systematically analysing and synthesizing the extant research published on BD and BDA area. More specifically, the authors seek to answer the following two principal questions: Q1 – What are the different types of BD challenges theorized/proposed/confronted by organizations? and Q2 – What are the different types of BDA methods theorized/proposed/employed to overcome BD challenges?. This systematic literature review (SLR) is carried out through observing and understanding the past trends and extant patterns/themes in the BDA research area, evaluating contributions, summarizing knowledge, thereby identifying limitations, implications and potential further research avenues to support the academic community in exploring research themes/patterns. Thus, to trace the implementation of BD strategies, a profiling method is employed to analyze articles (published in English-speaking peer-reviewed journals between 1996 and 2015) extracted from the Scopus database. The analysis presented in this paper has identified relevant BD research studies that have contributed both conceptually and empirically to the expansion and accrual of intellectual wealth to the BDA in technology and organizational resource management discipline

 

نویسنده (گان): فرشاداحمدی؛ سیدمحمدرضا موسوی؛ آرزو رهنمافلاورجانی و محمدرضا محمدشفیعی

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس بین المللی علوم و مهندسی

چکیده:

امروزه به دلیل گسترش دانش و پیچیدهتر شدن فرآیند تصمیم گیری، استفاده از سیستمهای اطلاعاتی به خصوص سیستم های در حمایت از هوش مصنوعی، اهمیت بیشتری پیدا کرده است . همچنین به کمک این علم بشر به دستاوردهای زیادی رسیده است که خواه مفید و خواه خطرناک است. ازجمله ی این موفقیت ها می توان به پیشرفت در تجارت و کمک به زندگی انسان ها در خدمات رسانی بهتر و به صرفه تر نام برد. هوش مصنوعی رابطهی تنگاتنگی با علوم مختلف دارد که از مهمترین آنها میتوان به منطق ریاضی و مهندسی نام برد که کمک زیادی به علم رباتیک کرده است و موجب شده انسان به پیشرفت های قابل توجهی دست یابد. بعلاوه در هوش تجاری که مقوله ای از هوش مصنوعی است با جست و جو، استفاده از فناوری ها، ابداع، آزمون و تصمیم گیری کسب و کار مردم و همچنین بازار های جهانی و به طور کل اقتصاد جهانی به پیشرفت های زیادی رسیده است.

 

نویسنده (گان): سمیه قربانیان و اعظم عندلیب

سال انتشار: ۱۳۹۵

ارائه شده در: اولین کنفرانس ملی مهندسی کامپیوتر، علوم کامپیوتر و فناوری اطلاعات

چکیده:

هدف : این پژوهش یک مطالعه مروری است که به بررسی تأثیر هوش تجاری بر مدیریت منابع سازمانی و ارتقای سازمان می پردازد. در این راستا، منابع موجود، اعم از مقالات علمی پژوهشی و کتب مرتبط گردآوری گشت. سپس بر پایه یافته های پژوهشگران این حوزه روش های تأثیر هوش تجاری بر سازمان ها شناسایی شد. در پایان یافته ها نشان دادند با توجه به جدول بالا می توان دریافت که هوش تجاری در گام نخست از راه افزایش دانش و شناخت بر میزان استفاده از تکنولوژی و شبکه های ارتباطی افزوده و سپس در فرآیند تصمیم گیری و برنامه ریزی تأثیر نهاده و سبب پیش بینی نیاز بازار، مشتریان و خطرات احتمالی از سوی رقبا می گردد. این فرآیند سبب می شود تا افزایش هوش تجاری بر مدیریت منابع انسانی و ارتقای سازمان ها تأثیر مثبت و بهینه داشته باشد. از این رو به مدیران سازمان ها پیشنهاد می گردد تا با آموزش روش های ارتقای هوش تجاری به کارکنان به افزایش کیفیت مدیریت منابع سازمان و افزایش بازدهی سازمان کمک نمایند. همچنین به پژوهشگران پیشنهاد می شود تا به بررسی نشانه های هوش تجاری پرداخته، تا کارکنان سازمان ها بتوانند با افزایش رفتارهای برخاسته از هوش تجاری به صورت مهندسی معکوس بر میزان هوش تجاری خویش بیفزایند.

 

نویسنده (گان): سالاریان, محسن؛ منیر متاجی نیموری و طاهره پورلاهیجی

سال انتشار: ۱۳۹۲

ارائه شده در: دومین همایش ملی علوم مدیریت نوین

چکیده:

هدف : بررسی ضرورت و اهمیت هوش تجاری به عنوان یکی از سیستم های نوین فناروی اطلاعات در سازمان ها روش: این مقاله در دو بخش سازماندهی شده است. درمقاله حاضر ابتدا نقش هوشمندی در کسب و کارها و ضرورت استتااده از هوش تجاری درسازمان ها توضیح داده شده ودر ادامه فاکتورهای مهم درایجاد شرایط مطلوب برای هوش تجتاری درستازمان مورد بررسی قرارگرفته است. سپس زیرساخت های نرم افزاری و سخت افزاری مورد نیازآن تشریح شده و درنهایت پیشتنهاداتی جهت استفاده و پیاده سازی بهتر سیستم های هوش تجاری در سازمان ها داده شده است. یافته ها : با توجه به تحقیقات انجام شده در زمینه شناسایی عوامل و فاکتور های اثرگذار جهت اجرایی شدن هوش تجاری در سازمان قضایی همچون ضرورت استفاده از هوش تجاری در سازمان ها، هدف های سیستم های هوش تجاری، مراحل هوش تجاری، مراحل هوش تجاری، شناسایی و آماده سازی داده ها برای سیستم هوش تجاری، اهداف زیر ساختی هوش تجاری، سودمندی های بالقوه کاربرد سیستم های هوش تجاری، شاخص های سازمانی تاثیر گذار بر هوش تجاری، اجزا و مهارت های لازم برای ارتقای هوشمندی کسب و کار مورد بحث و بررسی قرار خواهد گرفت. در پایان نشان خواهیم داد که تصمیم گیری در زمینه اجرایی شدن سیستم هوش تجاری به نتوان یکی از راهکارهای نوین فناوری اطلاعات چگونه در روند بهبود عموکرد سازمانی و ارتقای جایگاه سازمان ها به شرح تحویل و تاثیر درست اثرگذار خواهد بود.

 

Author(s): Bao RongChang-Hsiu-FenTsai- Po-HaoLiao

Year: 2018

Published: Computers & Electrical Engineering, Volume 70, August 2018, Pages 998-1018

Abstract:
This paper introduces the integration of two data processing platforms, RHhadoop and SparkR, to carry out rapid big data retrieval and analytics using R programming, which can serve as part of business intelligence. Besides, it has developed the job scheduling optimization called Memory-Sensitive Heterogeneous Earliest Finish Time algorithm to enhance system throghput. However, the bottleneck of system throughput is definitely relevant to data traffic problem over network, especially a large amount of data exchange between distributed computing nodes within a cluster. The objective of this paper is to propose an intelligence approach to tackle the crucial problems of inefficient data traffic flow. Adaptive network-based fuzzy inference system along with particle swarm optimization has employed to tune the network-related parameters at computing nodes for improving network QoS and speed up data transportation significantly. In order to examine the computing efficiency, performance index has been evaluated for all of treatments in the experiment

 
برای تغییر این متن بر روی دکمه ویرایش کلیک کنید. لورم ایپسوم متن ساختگی با تولید سادگی نامفهوم از صنعت چاپ و با استفاده از طراحان گرافیک است.

نویسنده (گان): مرتضی رموزی _ علیرضا شفاعت

سال انتشار: ۱۳۹۷

ارائه شده در: دومین همایش ملی دانش و فناوری مهندسی برق، کامپیوتر و مکانیک ایران

چکیده:

باتوجه به پیشرفت تکنولوژی و نیاز جوامع به بهره گیری از فناوری های نوین ارتباطی برای تحقیق و دستیابی به شهرها و خودروهای هوشمند استفاده از ابزارهای نوین به عنوان امری ضروری مطرح گردید.سیستم تصمیم یار یا دی اس اس به عنوان یکی از ابزارهای این فناوری ها با هدف ارتقای وضعیت حمل و نقل و ترافیک شهری در شبکه های بین خودرویی به کار گرفته می شود . سیستم تصمیم یار سیسنمی است که برای پشتیبانی از تصمیم گیرندگان در موقعیت های تصمیم گیری شبه ساختار یافته به کار می رود.یکی از موارد کاربرد این سیستمها انتخاب مسیر بهینه می باشد.این مسیر می تواند با توجه به فاکتورهایی همچون میزان مسافت،مدت زمان طی مسیر ،میزان مصرف سوخت،ترافیک مسیر و غیره تعیین شود.در این مقاله سعی شده است تا با استفاده از روشهای داده کاوی و سری های زمانی سیستمی ارایه شود که بتواند با استفاده از تلفن همراه به انتخاب مسیر مناسب با توجه به وضعیت ترافیک کمک کند.

نویسنده (گان): رزازی بروجنی حامد,کاهیدباصیری مهدی

سال انتشار: ۱۳۹۴

ارائه شده در:کنفرانس بین المللی فناوری اطلاعات، ارتباطات و مخابرات

چکیده:

مهمترین شاخص بقای یک صنعت دریافت اطلاعات مفید، دقیق و به موقع است که یک اعتبار بلند مدت برای آن صنعت محسوب می شود و صنعت بیمه از جمله نمونه های بارز نیازمند این شاخص هاست که از طریق شاه رگ حیاتی خود که همان هوش تجاری است می تواند در بازارهای رقابتی سنگین موفق عمل کند. پژوهش حاضر که مطالعه ای توصیفی است با هدف بررسی تاثیر استفاده از هوش تجاری در موفقیت صنعت بیمه انجام شده است و به عنوان نمونه مدلی کاربردی از کشور چین را مورد مطالعه قرار داده است. نتایج حاکی از آن است که هوش تجاری مهم ترین فاکتور توسعه در بازار رقابتی صنعت بیمه است.

 

Author(s):MicheleCarminati- RobertoCaron- FedericoMaggi- IleniaEpifani- StefanoZanero

Year: 2015

Published: Computers & Security, Volume 53, September 2015, Pages 175-186

Abstract:

The significant growth of online banking frauds, fueled by the underground economy of malware, raised the need for effective fraud analysis systems. Unfortunately, almost all of the existing approaches adopt black box models and mechanisms that do not give any justifications to analysts. Also, the development of such methods is stifled by limited Internet banking data availability for the scientific community. In this paper we describe BankSealer, a decision support system for online banking fraud analysis and investigation. During a training phase, BankSealer builds easy-to-understand models for each customer’s spending habits, based on past transactions. First, it quantifies the anomaly of each transaction with respect to the customer historical profile. Second, it finds global clusters of customers with similar spending habits. Third, it uses a temporal threshold system that measures the anomaly of the current spending pattern of each customer, with respect to his or her past spending behavior. With this threefold profiling approach, it mitigates the under-training due to the lack of historical data for building well-trained profiles, and the evolution of users’ spending habits over time. At runtime, BankSealer supports analysts by ranking new transactions that deviate from the learned profiles, with an output that has an easily understandable, immediate statistical meaning.

Our evaluation on real data, based on fraud scenarios built in collaboration with domain experts that replicate typical, real-world attacks (e.g., credential stealing, banking trojan activity, and frauds repeated over time), shows that our approach correctly ranks complex frauds. In particular, we measure the effectiveness, the computational resource requirements and the capabilities of BankSealer to mitigate the problem of users that performed a low number of transactions. Our system ranks frauds and anomalies with up to 98% detection rate and with a maximum daily computation time of 4 min. Given the good results, a leading Italian bank deployed a version of BankSealer in their environment to analyze frauds.

 

Author(s): DidierHenry- ErickStattner- MartineCollard

Year: 2018

Published: Procedia Computer Science, Volume 130, 2018, Pages 464-471

Abstract:

Nowadays, social networks are one of the most used means of communication. For example, the social network Twitter has nearly 100 million active users who post about 500 million messages per day. Sharing information on this platform is unique because messages are limited in characters number. Faced with this limitation, users express themselves briefly and use sometimes a hashtag that summarizes the general idea of the message. Nevertheless, hashtags are noisy data because they do not respect any linguistic rule, may have several meanings, and their use is not under control. In this work, we tackle the problem of hashtag context which may have useful applications in several fields like information recommendation or information classification. In this paper, we propose an original data cleaning method to extract the most relevant neighbor hashtags of a hashtag. We test our method with a dataset containing hashtags related to several topics (such as sport, music, technology, etc.) in order to show the efficacy and the robustness of our approach.

 

Author(s): HussainAl-Aqrabi- LuLiu- RihardHill- NikAntonopoulos

Year: 2015

Published: Jurnal of Computer and System Science, Volume 81, Issue 1, February 2015, Pages 85-96

Abstract:

In self-hosted environments it was feared that business intelligence (BI) will eventually face a resource crunch situation due to the never ending expansion of data warehouses and the online analytical processing (OLAP) demands on the underlying networking. Cloud computing has instigated a new hope for future prospects of BI. However, how will BI be implemented on Cloud and how will the traffic and demand profile look like? This research attempts to answer these key questions in regards to taking BI to the Cloud. The Cloud hosting of BI has been demonstrated with the help of a simulation on OPNET comprising a Cloud model with multiple OLAP applicaton servers applying parallel query loads on an array of servers hosting retional databases. The simulation results reflected that extensible parallel processing of database servers on the Cloud can efficiently process OLAP application demands on Cloud computing.