بانک مقالات

مقالات هوش تجاری یا هوشمندی کسب و کار

مروری بر الگوریتم های استخراج مجموعه اقلام تکراری برای داده های بزرگ

نویسنده (گان): راضیه طاهری – هاجر غنفر – صمد نجاتیان – علیرضا دهقانی

سال انتشار: ۱۳۹۶

ارائه شده در: پنجمین کنفرانس بین المللی مهندسی برق و کامپیوتر با تاکید بر دانش بومی

چکیده:

کاوش مجموعه اقلام، تکنیکی از داده کاوی اکتشافی است که مورد استفاده برای کشف ارتباط و همبستگی های پنهان در مجموعه داده می باشد. همچنین مورد بهره برداری در دامنه های مختلفی از داده های ترافیک شبکه تا رکوردهای پزشکی می باشد. پیشرفت های به وجود آمده در دهه های اخیر در زمینه جمع آوری دادهها و قابلیت ذخیره سازی آنها باعث رویارویی با حجم بزرگی از اطلاعات در بسیاری از علوم شده است. با افزایش حجم داده، الگوریتم های مقیاس پذیر مختلف با بهره برداری از مزایای چارچوب های محاسباتی توزیع شده مانند آپاچی هدوپ و اسپارک، توسعه یافته اند.

مروری بر مدیریت پردازش دادگان عظیم با استفاده از Apache و Spark MapReduce

نویسنده (گان): محمدرضا مرادی- رسول روستایی

سال انتشار: ۱۳۹۵

ارائه شده در:  منتشر شده در اولین همایش ملی نگرشی نوین در مهندسی برق و کامپیوتر در سال ۱۳۹۵

چکیده:

با ورود به عصردادگان عظیم و تولید انبوهی از انواع داده ها این ضرورت احساس می شود که باید از این انبوه داده ها برای کسب اطلاعات راهبردی استفاده کرد. اما با روش های تحلیل داده قدیمی نمی توان داد های متنوع تولید شده را به درستی تحلیل کرد. از این رو متخصصین علم داده کاوی روش هایی را برای تحلیل این نوع از داده ها ابداع کرده اند. اما سوال اینجاست که چه روشی برای تحلیل این داده ها مناسبتر است. در تحلیل داده گان عظیم، روش های پردازش موازی و توزیع شده مورد توجه قرار گرفته اند. چارچوب های مانند Hadoop MapReduce و Spark از این نوع هستند. در این مقاله با مرور عملکرد چارچوب های MapReduce Hadoop و Spark Apache در مواجه با انواع داده ای مختلف و کتابخانه های که برای این دو چارچوب توسعه داده شده اند، سعی کردیم مقایسه ای اجمالی از این دو بستر تحلیل داده داشته باشیم. در ادامه تفاوت فازهای Map و Reduce را بین Spark و MapReduce بررسی کردیم.

تاثیر بهره گیری از هوش تجاری در کاهش هزینه های تولید در مجموعه های صنعتی

نویسنده (گان): مریم مرادی- یونس مهربان- هیوا خالدی

سال انتشار: ۱۳۹۷

ارائه شده در:  دومین همایش بین المللی مهندسی برق،علوم کامپیوتر و فناوری اطلاعات

چکیده:

در مجموعه های صنعتی و تولیدی همواره وجود نقص ها، هزینه های هنگفتی به این مجموعه ها تحمیل می نماید و مسلما هر تصمیم درست و به موقع در جهت کاهش نقص ها می تواند از بروز هزینه های چشمگیری جلوگیری نماید. جمع آوری اطلاعات از پایگاه داده های عملیاتی هر سازمان و به کارگیری آن ها در پایگاه داده های تحلیلی، مدیران هر مجموعه را قادر می سازد تا با بهره گیری از یک سیستم تصمیم یار که بخشی از یک سیستم هوش تجاری است و مدیریت دانش در هر بخش از مجموعه، تصمیماتی در راستای توسعه هر چه بهتر سازمان اتخاذ نمایند و راهکارهای موثری در پیشگیری از بروز هزینه های ناخواسته ارایه نماید. سیستم تصمیم یار مورد اشاره، هر رویکردی داشته باشد خواه Goal Seekin و یا What IF توان جهت نیل به یک سو، مفید و موثر واقع شود.

Big data, big decisions: The impact of big data on board level decision-making

Author(s): AlessandroMerendinoSallyDibbMaureeneadowsLeeQuinnDavidWilsonLyndonSimkinAnaCanhoto

Year: 2018

Published: Journal of Business Research, Volume 93, December 2018, Pages 67-78

Abstract:

Big Data (BD) has the potential to ‘disrupt’ the senior management of organisations, prompting directors to make decisions more rapidly and to shape their capabilities to address environmental changes. This paper explores whether, how and to what extent BD has disrupted the process of board level decision-making. Drawing upon both the knowledge-based view, and cognitive and dynamic capabilities, we undertook in-depth interviews with directors involved in high-level strategic decision-making. Our data reveal important findings in three areas. First, we find evidence of a shortfall in cognitive capabilities in relation to BD, and issues with cognitive biases and cognitive overload. Second, we reveal the challenges to board cohesion presented by BD. Finally, we show how BD impacts on responsibility/control within senior teams. This study points to areas for development at three levels of our analysis: individual directors, the board, and a broader view of the organisation with its external stakeholders.

System Optimization for Big Data Processing

Author(s): R.LiX.DongX.GuZ.XueK.Li

Year: 2016

Published: Big Data, Principles and Paradigms

Abstract:

With the development and popularization of cloud computing, the Internet-of-Things, and mobile communications, the amount of data grows faster than ever before, which drives people to step into the age of Big Data. Hadoop and MapReduce programming frameworks have powerful data processing capability, and become more mature solutions in the field of text analysis, natural language processing, and business data processing. Therefore, Hadoop has become a key component of the Big Data processing system. Although Hadoop can support large-scale parallel data processing, there are still drawbacks to its underlying architecture and processing model in product environments, which caused the bottleneck in processing efficiency and performance. In terms of these shortcomings, various optimization techniques of Hadoop are proposed accordingly. In this chapter, the basic framework of the Hadoop ecosystem is described first. Next, we discuss the optimization of the parallel computing framework MapReduce, along with job scheduling, HDFS, HBase, etc. Finally, the directions of future optimization are discussed.

Spatial coding-based approach for partitioning big spatial data in Hadoop

Author(s): XiaochuangYaoMohamed F.MokbelLouaiAlarabiAhmedEldawyJianyuYangWenjuYunLinLi_ SijingYe_DehaiZhua

Year: 2019

Published: Computers & Geosciences, Volume 106, September 2017, Pages 60-67

Abstract:

Practically all organizations are developing data warehousing, business intelligence, and analytics (DW/BIA) projects for achieving customer value. A DW/BIA development project may be characterized by both agile and plan-driven aspects. The reported study investigated two research questions: (1) Which factor, agile values or plan-driven aspects, contributes more toward the success of DW/BIA? (2) What are the significant antecedents of agile values and plan-driven aspects? 124 respondents engaged in DW/BIA development filled a 30-item questionnaire on seven constructs. The partial least squares structural equation modeling (PLS-SEM) method was used to determine the strength of the relationships among the following factors: technological capability, shared understanding, top management commitment, and complexity as antecedents; agile values and plan-driven aspects as mediating; and project success as the dependent construct. Based on a prediction-oriented segmentation (PLS-POS) analysis, the findings indicate that there are two groups, agile-plan balanced and agile-heavy, which represent different approaches to DW/BIA development. Top management commitment and shared understanding emerge as strong antecedents to agile values and plan-driven aspects. Overall, the factor agile values contributes more toward the success of DW/BIA development.

Agile values or plan-driven aspects: Which factor contributes more toward the success of data warehousing, business intelligence, and analytics project development?

Author(s): DineshBatra

Year: 2019

Published: Journal of Systems and Software, Volume 146, December 2018, Pages 249-262

Abstract:

Practically all organizations are developing data warehousing, business intelligence, and analytics (DW/BIA) projects for achieving customer value. A DW/BIA development project may be characterized by both agile and plan-driven aspects. The reported study investigated two research questions: (1) Which factor, agile values or plan-driven aspects, contributes more toward the success of DW/BIA? (2) What are the significant antecedents of agile values and plan-driven aspects? 124 respondents engaged in DW/BIA development filled a 30-item questionnaire on seven constructs. The partial least squares structural equation modeling (PLS-SEM) method was used to determine the strength of the relationships among the following factors: technological capability, shared understanding, top management commitment, and complexity as antecedents; agile values and plan-driven aspects as mediating; and project success as the dependent construct. Based on a prediction-oriented segmentation (PLS-POS) analysis, the findings indicate that there are two groups, agile-plan balanced and agile-heavy, which represent different approaches to DW/BIA development. Top management commitment and shared understanding emerge as strong antecedents to agile values and plan-driven aspects. Overall, the factor agile values contributes more toward the success of DW/BIA development.

Business intelligence and analytics for value creation: The role of absorptive capacity

Author(s): KaerinaBožičVladoDimovski

Year: 2019

Published: International Journal of Information Management, Volume 46, June 2019, Pages 93-103

Abstract:

Firms continuously report increased competitive value gains from the use of business intelligence and analytics (BI&A), however, little is known about how insights from BI&A are transformed to added value to date. We have conducted fourteen in-depth, semi-structured interviews with a sample of informants in CEO positions, IT managers, CIO, Heads of R&D, as well as Market Managers from nine medium or large-sized European firms. Applying the absorptive capacity’s theoretical lens, we have provided evidence that absorptive capacity’s capabilities are an underlying foundation in the process of transforming BI&A triggered insights into valuable knowledge. Moreover, this process is supported by technological, human, and relationship assets.

Cloud-based manufacturing equipment and big data analytics to enable on-demand manufacturing services

Author(s): YuqianLu- XunXu

Year: 2019

Published: Robotics and Computer-Integrated Manufacturing, Volume 57, June 2019, Pages 92-102

Abstract:

In their daily business, bank branches should register their operations with several systems in order to share information with other branches and to have a central repository of records. In this way, information can be analysed and processed according to different requisites: fraud detection, accounting or legal requirements. Within this context, there is increasing use of big data and artificial intelligence techniques to improve customer experience. Our research focuses on detecting matches between bank operation records by means of applied intelligence techniques in a big data environment and business intelligence analytics. The business analytics function allows relationships to be established and comparisons to be made between variables from the bank’s daily business. Finally, the results obtained show that the framework is able to detect relationships between banking operation records, starting from not homogeneous information and taking into account the large volume of data involved in the process.

 

On neural networks and learning systems for business computing

Author(s): LiYawen_ JianWeifeng_ YangLiu-WuTian

Year: 2019

Published: Information Sciences, Volume 485, June 2019, Pages 319-346

Abstract:

Artificial intelligence, including neural networks, deep learning and machine learning, has made numerous progress and offered new opportunity for academic research and applications in many fields, especially for business activities and firm development. This paper summarizes different applications of artificial intelligence technologies in several domains of business administration. Finance, retail industry, manufacturing industry, and enterprise management are all included. In spite of all the existing challenges, we conclude that the rapid development of artificial intelligence will show its great impact on more fields.

 

Modelling Knowledge about Data Analysis Processes in Manufacturing

Author(s): ThomasNeuböckMchaelSchrefl

Year: 2015

Published: IFAC-PapersOnLine, Volume 48, Issue 3, 2015, Pages 277-282

Abstract:

In industry 4.0, analytics and business intelligence (BI) are of particular importance to increase productivity, quality, and flexibility. It is necessary to make right and quick decisions for effective and efficient problem solving and process improvements. Modern technologies allow to collect a large amount of data that can be analysed. Heterogeneity and complexity of industrial environments require considerable expert knowledge to perform meaningful and useful data analysis. BI analysis graphs represent expert knowledge about analysis processes. This knowledge can be modelled pro-actively at schema level and used at instance level. Analysis situations can be considered as multi-dimensional queries and represent nodes of a BI analysis graph. An arc between two nodes is a relationship between two analysis situations describing the difference of both. It represents a navigation step, e.g., an online analytical processing (OLAP) operation, of the analysis process. We demonstrate BI analysis graphs by a use case originated from manufacturing of brushes. Complex analysis paths, e.g., to analyse substitute material in the case of delayed delivery, are modelled by BI analysis graphs and can be used multiple times (also by non-experts). Reinvention of analysis knowledge is prevented – right and quick decisions for finding effective and efficient problem solutions can be made.

 

Data and knowledge mining with big data towards smart production

Author(s): ChengYing– ChenKen– SunHemeng– ZangYongping– TaoFei

Year: 2018

Published: Robotics and Computer-Integrated Manufacturing, Volume 57, June 2019, Pages 92-102

Abstract:

Driven by the innovative improvement of information and communication technologies (ICTs) and their applications into manufacturing industry, the big data era in manufacturing is correspondingly arising, and the developing data mining techniques (DMTs) pave the way for pursuing the aims of smart production with the real-time, dynamic, self-adaptive and precise control. However, lots of factors in the ever-changing environment of manufacturing industry, such as, various of complex production processes, larger scale and uncertainties, more complicated constrains, coupling of operational performance, and so on, make production management face with more and more big challenges. The dynamic inflow of a large number of raw data which is collected from the physical manufacturing sites or generated in various related information systems, caused the heavy information overload problems. Indeed, most of traditional DMTs are not yet sufficient to process such big data for smart production management. Therefore, this paper reviews the development of DMTs in the big data era, and makes discussion on the applications of DMTs in production management, by selecting and analyzing the relevant papers since 2010. In the meantime, we point out limitations and put forward some suggestions about the smartness and further applications of DMTs used in production management.

Automatic detection of relationships between banking operations using machine learning

Author(s): IsraelGonzález-Carrasco– Jose LuisJiménez-Márquez– Jose LuisLópez-Cuadrado- BelénRuiz-Mezcua

Year: 2019

Published: Information Sciences, Volume 485, June 2019, Pages 319-346

Abstract:

In their daily business, bank branches should register their operations with several systems in order to share information with other branches and to have a central repository of records. In this way, information can be analysed and processed according to different requisites: fraud detection, accounting or legal requirements. Within this context, there is increasing use of big data and artificial intelligence techniques to improve customer experience. Our research focuses on detecting matches between bank operation records by means of applied intelligence techniques in a big data environment and business intelligence analytics. The business analytics function allows relationships to be established and comparisons to be made between variables from the bank’s daily business. Finally, the results obtained show that the framework is able to detect relationships between banking operation records, starting from not homogeneous information and taking into account the large volume of data involved in the process.

 

Integration of big-data ERP and business analytics (BA)

Author(s): ZhengzhongShi- GangWang

Year: 2018

Published: The Journal of High Technology Management Research, Volume 29, Issue 2, November 2018, Pages 141-150

Abstract:

Technology advancements in cloud computing, big data systems, No-SQL database, cognitive systems, deep learning, and other artificial intelligence techniques make the integration of traditional ERP transaction data and big data streaming from various social media platforms and Internet of Things (IOTs) into a unified analytics system not only feasible but also inevitable. Two steps are prominent for this integration. The first, coined as forming the big-data ERP, is the integration of traditional ERP transaction data and the big data and the second is to integrate the big-data ERP with business analytics (BA). As ERP implementers and BA users are facing various challenges, managers responsible for this big-data ERP-BA integration are also seriously challenged. To help them deal with these challenges, we develop the SIST model (including Strategic alignment, Intellectual and Social capital integration, and Technology integration) and propose that this integration is an evolving portfolio with various maturity levels for different business functions, likely leading to sustainable competitive advantages.

 

گذری بر تجزیه و تحلیل کلان داده در حوزه سلامت الکترونیک

نویسنده (گان): پریساحسنی زاده, صنم یحیی پور و رامین صفا

سال انتشار: ۱۳۹۷

ارائه شده در:  چهارمین کنفرانس ملی محاسبات توزیعی و پردازش داده های بزرگ

چکیده:

در دو دهه گذشته فناوری اطلاعات در پزشکی به طور گسترده ای مورد استفاده قرار گرفته است. رشد و افزایش سرعت همه گیری شبکه های مقیاس وسیع در سال های اخیر موجب تحولی عظیم در جنبه های مختلف زندگی بشر شده و تاثیر این فناوری بر علوم و کسب وکار موجب ظهور حیطه های جدیدی همچون دولت الکترونیک، آموزش الکترونیک و سلامت الکترونیک شده است. سلامت الکترونیک یک زمینه جدید و روبه رشد از تلاقى اطلاع رسانى پزشکی، سلامت عمومى و فناوری اطلاعات است که امروزه شاهد تحقیقات گسترده ای در حوزه تحلیل داده های حاصل از آن هستیم. کلان داده اصطلاحی برای مجموعه داده های حجیم، بزرگ و متنوع با ساختاری پیچیده است که شامل دشواری هایی برای ذخیره سازی، تحلیل، تصویرسازی و پردازش می باشد. تحلیل کلان داده راه و روش مدیریت در حوزه های متفاوت از جمله مراقبت سلامت را تغییر داده و فرصت های امیدوار کننده ای را به وجود آورده است. بطور کلی تجزیه و تحلیل داده ها و معماری سیستم های مراقبت سلامت می تواند به کاهش هزینه های درمان، پیش بینی بیماری های همه گیر و بهبود کیفیت زندگی کمک کند. در این مقاله پس از مروری بر مفاهیم پایه، معماری و چالش های بهره گیری از کلان داده در حوزه درمان و سلامت الکترونیک مورد بحث قرار می گیرد.

کاربردهای شبکه عصبی مصنوعی در هوشمند سازی کسب و کار

نویسنده (گان): امین قربانی

سال انتشار: ۱۳۹۷

ارائه شده در:  کنفرانس سالانه مدیریت و اقتصاد کسب و کار

چکیده:

شبکه های عصبی پرسپترون در حل مسایل مهندسی و سیستم های هوشمند سبب گرایش به ابداع روش های مختلف در آموزش شبکه های عصبی شده است. متداول ترین روش آموزش شبکه های عصبی روش پس انتشار حتی از که می تواند برای گردآوری، یکپارچه سازی، تحلیل و قابل دسترس کردن داده ها و طبقه بندی آن ها مورد استفاده قرار گیرد. تکنیک ها و ابزارهای شبکه های عصبی مصنوعی به صاحبان کسب و کار این امکان را می دهد که بتواند نیازهای خود و مشتریان خود را بهتر درک کنند لذا هوشمند سازی کسب و کار با روش های شبکه های عصبی مصنوعی منجر به کاهش هزینه ها می شود. یکی از مشکلات بزرگ کسب و کارها حجم عظیم داده های خام می باشد که قابل استناد نمی باشد و استفاده از الگوریتم های شبکه های عصبی امکان طبقه بندی کردن داده ها را فراهم می نماید.

بررسی تاثیر هوش تجاری بر عملکرد سازمان مناطق آزاد

نویسنده (گان): آسیه میرکازهی ریگی

سال انتشار: ۱۳۹۴

ارائه شده در:  کنفرانس سالانه مدیریت و اقتصاد کسب و کار

چکیده:

در دنیای به شدت رقابتی امروز، مدیران برای پیشبرد محصول و خدمات سازمان ها در میدان رقابت، نیازمند راهبردی جهت منحصربفرد شدن هستند. به سخنی دیگر، داشتن ابزاری جهت متمایز سازی سازمان و محصولات از رقبا و محصولاتشان از تکنیک ها و ابزارهای حمایت گر مدیران ارشد و مدیرانسازمان منطقه ازاد ، جهت اخذ تصمیم به موقع و سریع در میان انبوه اطلاعات و داده های گوناگون، سیستم هوش تجاری (BI) است. هدف از این پژوهشارزیابی و بررسی تاثیرهوش تجاری بر عملکرد سازمان منطقه ازاد می باشد. پژوهش حاضر از نوع کاربردی بوده و تحلیلی توصیفی می باشد. ابزار جمع آوریاطلاعات کتابخانه ای است. با مقایسه ی مطالعات قبلی می توان استنباط نمود که نیازهای مدیران از طریق ابزارهای هوش تجاری پاسخ داده می شود.در نتیجه ، بکارگیری سیستم هوش تجاری در یک سازمان در جهت تحلیل و پیش بینی سریع حجم وسیع اطلاعات و تبدیل آن ها به دانش، به مدیران سازمان منطقه ازاد امکان دستیابی به اهداف سازمان نظیر داشتن مزیت رقابتی، حفظ عملکردی مثبت و مستمر و تصمیم گیری بهنگام و صحیح را می دهد که گرفتن تصمیمات صحیح و به موقع در سازمان می تواند موفقیت آن را در عرصه ی رقابت تضمین نماید

عوامل موثر بر پیاده سازی هوشمندی کسب و کار در صنعت بانکداری ایران

نویسنده (گان): صلاح رضایی- سید جواد میر عابدینی- عطاءالله ابطحی

سال انتشار: ۱۳۹۷

ارائه شده در: فصل نامه مطالعات مدیریت کسب و کار دانشگاه علامه طباطبایی، مقاله ۲، دوره ۶، شماره ۲۳، بهار ۱۳۹۷، صفحه ۳۳-۸۱

چکیده:

اگرچه بسیاری از سازمان‌ها به استقرار و استفاده از سیستم‌های هوشمندی کسب‌وکار روی آورده­اند؛ اما همه آن‌ها در پیاده‌سازی این سیستم‌ها موفق نبوده­اند. تحقیق حاضر به بررسی جامع عوامل تأثیرگذار بر فرآیند پیاده­سازی اثربخش این سیستم‌ها در صنعت بانکداری ایران پرداخته است. این تحقیق از نظر هدف، یک پژوهش کاربردی و به لحاظ استراتژی اجرا، یک پژوهش پیمایشی محسوب می‌شود؛ همچنین بر اساس طرح پژوهش و نحوۀ گردآوری داده­ها، پژوهش حاضر از نوع توصیفی است که برای گردآوری اطلاعات روش‌های مطالعه اسنادی و میدانی بکار گرفته شده است. جامعه آماری این پژوهش، شامل متخصصان و خبرگان حوزه فناوری اطلاعات و فعال در پیاده­سازی راهکارهای هوشمندی کسب‌وکار در صنعت بانکداری ایران است. در این تحقیق ابتدا با استفاده از روش کتابخانه­ای به بررسی گسترده­ ادبیات موضوع پرداخته شده که نتیجه آن تهیه چارچوب اولیه عوامل مؤثر بر پیاده‌سازی هوشمندی کسب‌وکار و معیارهای اثربخشی هوشمندی کسب‌وکار بوده است. سپس با استفاده از این چارچوب اولیه و اخذ نظرات خبرگان با رویکرد تکنیک دلفی فازی، عوامل کلیدی مؤثر بر فرآیند پیاده‌سازی هوشمندی کسب‌وکار و معیارهای مهم اثربخشی هوشمندی کسب‌وکار در صنعت بانکداری ایران شناسایی شده و در نهایت مدل پیاده‌سازی اثربخش هوشمندی کسب‌وکار ارائه شده است. در ادامه تحقیق با استفاده از تحلیل عاملی تأییدی و آزمون‌های آماری به اعتبارسنجی مدل پرداخته شد. بر اساس نتایج تحقیق، ابعاد مدل پیاده­سازی اثربخش هوشمندی کسب‌وکار در صنعت بانکداری ایران شامل ۱۰ بعد: سازمانی، انسانی، کیفیت داد، محیطی، قابلیت سیستم، راهبردی، کیفیت سرویس، زیرساخت فنی و مدیریتی و اثربخشی هوشمندی کسب‌وکار است.

بررسی تاثیر هوش های رقابتی و تجاری بر تجاری سازی ایده هابا تاکید بر مزیت رقابتی در دانشگاههای نسل سوم به منظور ارائه مدل

نویسنده (گان): ترانه عنایتی- محمد صالحی-  طیبه جلالی

سال انتشار: ۱۳۹۷

ارائه شده در: فصل نامه پژوهش در نظام های آموزشی، مقاله ۲۱، دوره ۱۲، ویژه‌نامه، بهار ۱۳۹۷، صفحه ۳۶۱-۳۷۸

چکیده:

این پژوهش با هدف ارائه مدل جهت تبیین تأثیر هوش‌های رقابتی و تجاری بر تجاری‌سازی ایده‌ها با تأکید بر مزیت رقابتی در دانشگاه‌های نسل سوم انجام ‌شده است. پژوهش حاضر باهدف کاربردی و با رویکرد ترکیبی (آمیخته) با طرح اکتشافی انجام شد.جامعه آماری در بخش کیفی اعضای هیئت‌علمی دانشگاه بودند که با روش نمونه‌گیری هدفمند و با توجه به قانون اشباع ۱۸ نفر انتخاب شدند. جامعه آماری در بخش کمی اعضای هیئت‌علمی رسمی و مدرسین مدعو(غیررسمی) دانشگاه در شهر مشهد شامل ۲۵۷۲ نفر بودند که با استفاده از فرمول کوکران و روش نمونه‌گیری طبقه‌ای تعداد ۳۳۵ نفر از آن‌ها به‌عنوان حجم نمونه در نظر گرفته شدند.ابزار گردآوری داده‌ها در بخش کیفی مصاحبه‌های نیمه ساختاریافته بود که برای حصول اطمینان از روایی بخش کیفی و به‌منظور اطمینان خاطر از دقیق بودن یافته‌ها از دیدگاه پژوهشگر، از نظرات اساتید و خبرگان آشنا با این حوزه و متخصصان دانشگاهی علی‌الخصوص در حوزه کارآفرینی استفاده شد. در بخش کمی نیز به‌منظور گرداوری داده‌ها از ۴ پرسشنامه استفاده شد.برای محاسبه روایی پرسشنامه‌ها از روایی محتوا و سازه استفاده شد. روایی محتوایی پرسشنامه‌ها توسط خبرگان دانشگاه مورد تائید قرار گرفت. برای بررسی روایی سازه، از دو معیار روایی همگرا و واگرا استفاده شد. نتایج به‌دست‌آمده از بارهای عاملی گویه‌های هر عامل نشان داد، کلیه گویه­ها دارای بار عاملی بیش از ۴/۰ و میانگین واریانس استخراج‌شده، بالای ۵/۴ بودند، شرط AVE> 5/0 برای همه متغیرها برقرار است لذا روایی همگرا این متغیرها تائید شد. علاوه بر این، مقادیر جذر میانگین واریانس استخراج‌شده بیشترین مقدار را نشان می‌داد که بیانگر وجود روایی واگرا در بین متغیرهای پژوهش بود. پایایی و پایایی ترکیبی پرسشنامه ها بزرگ‌تر از ۵/۰ را نشان داد. برای تجزیه‌وتحلیل داده‌های بخش کیفی از تحلیل محتوا برای همه متغیرها با مقادیر بالای ۷/۰ استفاده شد، جهت تجزیه‌وتحلیل داده‌ها در بخش آمار توصیفی از جداول فراوانی و درصد فراوانی، میانگین و انحراف استاندارد و در بخش آمار استنباطی، از آزمون کولموگروف-اسمیرنوف، آزمون‌های t تک نمونه‌ای و مستقل، تحلیل عاملی اکتشافی و آزمون معادلات ساختاری استفاده شد و با استفاده از نرم‌افزار SPSS و Smart Pls تحلیل شد. نتایج نشان داد که: همه ابعاد و مؤلفه‌های متغیرها دارای بار عاملی بالای ۵/۰ هستند. همچنین نتایج حاصل از تحلیل عامل تأییدی نشان داد که هوش رقابتی با ضریب تأثیر ۸۹۷/۰، هوش تجاری با ضریب تأثیر ۶۴۹/۰ بر دانشگاه کارآفرین تأثیر مثبت و معناداری دارند ولی مزیت رقابتی با ضریب تأثیر ۱۹۶/۰ تأثیری ندارد مدل ارائه‌شده با برآورد برازش کلی GOF دارای برازش مناسب است و مؤلفه‌های حاصل در این پژوهش برای هوش رقابتی در بعد زمینه(آگاهی و دانش و اطلاعات داخلی ،زیرساخت و فناوری) و در بعد فرایند(جمع‌آوری، نگهداری و توسعه اطلاعات،برنامه‌ریزی و تمرکز)و برای هوش تجاری مؤلفه‌های قابلیت‌های تحلیلی ،کیفیت محتوای اطلاعات،استفاده از اطلاعات در فرآیند تصمیم‌گیری،فرهنگ تصمیم‌گیری تحلیلی و مؤلفه‌های شایستگی‌های منحصربه‌فرد و قابلیت حفظ و نگهداری در متغیر مزیت رقابتی تائید گردید.در متغیر دانشگاه کارآفرین ۷ مؤلفه حاکمیت و اداره دانشگاه،ساختار و طرح سازمانی، قدرت نفوذ، مدیریت ذینفعان و ارزش‌های جامعه، مرکز رشد و تجاری‌سازی، بین‌المللی سازی ، حمایت و آموزش کارآفرینانه سرمایه‌گذاری تائید گردید.

Usage of Analytical Services in Industry Today and Tomorrow

Author(s): EduardoColangeloThomasBauernhansl

Year: 2016

Published: Procedia CIRP, Volume 57, 2016, Pages 276-280

Abstract:

Data is everywhere. Both, machines and men leave a digital shadow behind, which, for some means the success or failure of their business. Enterprises strive to make the most of this scattered, diverse and ever growing data, in order to obtain information they can apply to the decision-making processes. But, apart from the known and researched technical issues of volume, variety and velocity; more essential issues have to be addressed. Namely, how does an enterprise find the analytical model it needs to obtain the information it desires? From simple regression analyses to artificial intelligence, the variety in which data can be analyzed is immense. Involving specialist and consultants is time-consuming, needs effort and is usually too expensive, especially for SMEs.

This paper discusses the current options in the usage of analytics by enterprises as well as the existing challenges and elaborates recommendations for the future. Special focus is put on customer-oriented analytics by means of analytical services. In these, the building blocks of analytics are modularized in three layers: Data Interpretation & Cleansing Layer, Data Processing Layer, and Data Visualization Layer. This modularization allows building analytics in a standardized manner. Such services aim at reducing the gap between the holders of expert knowledge and the users of analytics. This is achieved by placing the attention on obtaining the desired information (choosing from a portfolio of analytics) instead of solving fundamental challenges, already addressed by the respective modules.

 

A Hybrid Computational Intelligence Decision Making Model for Multimedia Cloud Based Applications

Author(s): ChinuSingla– SakhiKaushal— AmandeepVerma- HarishKumar

Year: 2018

Published: Intelligent Data-Centric Systems, Pages 147-157, 2018

Abstract:

Due to technological advancement, clouds are becoming an important platform for processing different multimedia applications. These high performance environments emphasize the role of Information and Communication Technology (ICT) which is essential for the survival of global business to achieve better system design and operational objectives. The development of cloud computing represents a fundamental change in cloud and ICT services for multimedia applications with more functionality and increasing number of users. As multimedia data comprises of images, video, audio, text and these applications requires fast speed and large storage for transferring data, thus it is a crucial issue to choose best cloud services which meets all the requirements of the users for storing and managing multimedia data in heterogeneous mobile environment. The aim of this paper is to propose computational intelligence decision making model that can enable users to use cloud services during mobility accurately, cost effectively and in systematic way. So, this paper proposes a Hybrid Computational Intelligence Decision Making (HCIDM) model for multimedia cloud based services using Fuzzy Delphi Method (FDM) and Fuzzy Analytic Hierarchy Process (FAHP). FDM approach is used to select the list of different decision-making factors to solve the fuzziness of common understanding of different expert opinions. A FAHP approach is then proposed to determine the importance of decision making criteria’s and to select the best cloud service for migrating large multimedia applications based on the predetermining weights of decision factors. In this paper, the FDM and FAHP are used as the hybrid computational intelligence decision making techniques for best cloud path selection and shows optimal results when it compared with existing techniques that uses AHP and Fuzzy TOPSIS method.

اثر هوش تجاری بر عملکرد مالی بانک‌های ایران (با تأکید بر شاخص‌های سلامت مالی بانک‌ها)

نویسنده (گان): بهنوش زارعی – ژاله زارعی

سال انتشار: ۱۳۹۷

ارائه شده در: فصل نامه علمی و پژوهشی دانشگاه ابن سینا، مقاله ۶، دوره ۷، شماره ۲۵، بهار ۱۳۹۷، صفحه

چکیده:

کلید موفقیت تجاری برای بسیاری از بانک‌ها، استفاده صحیح از داده‌ها جهت اخذ تصمیمات بهتر، سریع‌تر و بدون نقص می‌باشد. بانک‌ها برای رسیدن به این هدف نیازمند استفاده از ابزارهای قوی و کارآمد مانند هوش تجاری به‌عنوان کاتالیزور مثبت هستند که می‌تواند این مؤسسات را در مکانیزه نمودن وظایف تحلیل، تصمیم‌سازی، تدوین استراتژی و پیش‌بینی یاری رساند. به‌عبارتی، هدف استفاده از هوش تجاری در این نهادها، گردآوری، پردازش و تحلیل حجم وسیعی از داده‌ها و تبدیل آن‌ها به ارزش تجاری مؤثر در تصمیم‌گیری از طریق ایجاد بستر گزارشات هوشمند تحلیلی است. لذا این مطالعه به‌دنبال پاسخ به این پرسش است که آیا عملیاتی کردن هوش تجاری و بهره‌گیری از کاربردهای آن می‌تواند زمینه افزایش عملکرد مالی بانک‌های ایران را فراهم کند؟ برای انجام این تحقیق ابتدا باید هوش تجاری به‌صورت شاخص کمی تعریف شود. برای کمی نمودن هوش تجاری از تحلیل مؤلفه‌های اصلی براساس رویکردهای ویکسوم و همکاران (۲۰۰۸) استفاده شد. از سوی دیگر، بازده دارایی، بازده سرمایه، نسبت وام به دارایی و نسبت هزینه به درآمد به‌عنوان نماینده‌ای از شاخص‌های سلامت مالی بانک‌ها برای بیان عملکرد مالی بانک‌ها مورد استفاده قرار گرفت. جامعه آماری در این تحقیق، جامعه آماری در این تحقیق شامل ۳۰ بانک­ ایران اعم از دولتی، خصوصی، تخصصی و بانک‌های خصوصی شده است. یافته‌های تحقیق نشان می‌دهد هوش تجاری در دوره زمانی ۱۳۸۵-۱۳۹۳ با تواتر سالیانه بر بازده دارایی و نسبت وام به دارایی اثر مثبت و معنی‌دار داشته و همچنین با یک‌سال وقفه زمینه افزایش بازده سرمایه را فراهم می‌آورد. از سوی دیگر، این فناوری می‌تواند نسبت هزینه به درآمد را کاهش دهد

بررسی نقش هوش تجاری در مدیریت ارتباط با مشتری با هدف کسب مزیت رقابتی و رضایت مشتری

نویسنده (گان): حسین توکلی- فرزاد آب سیه- میلاد علی قارداشی

سال انتشار: ۱۳۹۷

ارائه شده در: دومین کنفرانس ملی دانش و فناوری علوم مهندسی ایران

چکیده:

دنیای امروز با تغییرات فزاینده ای همراه است که نرخ و شتاب این تغییرات باور نکردنی است و افراد، سازمان ها و جوامع را به شکلهای مختلف تحت تاثیر خود قرار می دهد. ظهور فناوری اطلاعات وارتباطات و هوش تجاری، از جمله مهمترین این تغییرات می باشد. درصورتی که بتوان چالش ها و موانع پیاده سازی هوش تجاری راشناسایی و راهکارهای مناسب برای رفع آنها را اتخاذ کرد، پیاده سازی آن مزایای متعددی را برای سازمان به همراه خواهد داشت. یکی ازمهمترین این چالش ها، پذیرش و استفاده از هوش تجاری است که در صنعت گردشگری کشور قابل مشاهده است. این پژوهش بهشناسایی و تحلیل عوامل موثر بر پذیرش هوش تجاری در صنعت گردشگری ایران بر اساس نظرسنجی از خبرگان، مدیران و کارکنان این صنعت پرداخته و بر اساس مدل پذیرش فناوری دیویس، مدل پذیرش و استفاده از هوش تجاری در این صنعت ارایه می شود.

ارایه مدل پذیرش هوش تجاری در صنعت گردشگری در ایران

نویسنده (گان): مهدیه اسکافی _ بهنام عبدی

سال انتشار: ۱۳۹۵

ارائه شده در: اولین همایش بین المللی پژوهش های نوین در مطالعات مدیریت

چکیده:

دنیای امروز با تغییرات فزاینده ای همراه است که نرخ و شتاب این تغییرات باور نکردنی است و افراد، سازمان ها و جوامع را به شکلهای مختلف تحت تاثیر خود قرار می دهد. ظهور فناوری اطلاعات وارتباطات و هوش تجاری، از جمله مهمترین این تغییرات می باشد. درصورتی که بتوان چالش ها و موانع پیاده سازی هوش تجاری راشناسایی و راهکارهای مناسب برای رفع آنها را اتخاذ کرد، پیاده سازی آن مزایای متعددی را برای سازمان به همراه خواهد داشت. یکی ازمهمترین این چالش ها، پذیرش و استفاده از هوش تجاری است که در صنعت گردشگری کشور قابل مشاهده است. این پژوهش بهشناسایی و تحلیل عوامل موثر بر پذیرش هوش تجاری در صنعت گردشگری ایران بر اساس نظرسنجی از خبرگان، مدیران و کارکنان این صنعت پرداخته و بر اساس مدل پذیرش فناوری دیویس، مدل پذیرش و استفاده از هوش تجاری در این صنعت ارایه می شود.

Business Intelligence applied in Small Size for Profit Companies

Author(s): CarmineD’Arconte

Year: 2018

Published: Procedia Computer Science, Volume 131, 2018, Pages 45-57

Abstract:

With the expression, “Business Intelligence” we refer to intelligent technologies that may help companies improve their performances and have better possibilities to survive and develop. Anyway, in this regard, we sometimes have a double negative impression, namely that on one side there is a certain lack of practical indications on how to apply this in everyday companies’ life and, secondly, that it is often not taken into due consideration the extremely reduced size of companies, the limited entrepreneurial competences and the scarce availability of technologies. In this paper, apart from highlighting the role of Business Intelligence in practice, we try to find a way to apply it also in small size companies focusing on two critical aspects, namely customer’s profitability and their satisfaction level that, especially if considered in their reciprocal interaction, may have a great impact on companies’ outcomes though using simple technologies.

 

Business Intelligence Model to Analyze Social Media Information

Author(s): Parama FadliKurnia- Suharjito

Year: 2018

Published: Procedia Computer Science, Volume 135, 2018, Pages 5-14

Abstract:

Social media is a platform to share information that is very liked by everyone nowadays because some of the facilities that make it easier for us to communicate with each other, share documents, chat and even create a community. In addition, we can also analyze the content of social media by using several methods in data mining, so that we can get new the information to support decision making that can bring benefits to individuals and companies. The purpose of this research, to create a business intelligence dashboard to observe the performance of each Topic or channel of news posted to social media accounts such as Facebook and Twitter. Topical performance in social media is the number of Topics in articles posted to social media getting like, share, comment etc. To be able to know the Topic of a news post in social media, used some text classification techniques such as Naive Bayes, SVM and Decision Tree. The comparative results of the algorithms are taken which has the best accuracy of SVM for subsequent implementation in the data warehouse. Meanwhile, the business intelligence dashboard data source will be sourced from the data warehouses that have been made before.

 

 

Business intelligence & analytics in management accounting research: Status and future focus

Author(s): IsraelGonzález- CarrascoJose LuisJiménez-MárquezJose LuisLópez- CuadradoBelénRuiz-Mezcua

Year: 2018

Published: International Journal of Accounting Information Systems, Volume 29, June 2018, Pages 37-58

Abstract:

Executives see technology, data and analytics as a transforming force in business. Many organizations are therefore implementing business intelligence & analytics (BI&A) technologies to support reporting and decision-making. Traditionally, management accounting is the primary support for decision-making and control in an organization. As such, it has clear links to and can benefit from applying BI&A technologies. This indicates an interesting research area for accounting and AIS researchers. However, a review of the literature in top accounting and information systems journals indicates that to date, little research has focused on this link. This article reviews the literature, points to several research gaps and proposes a framework for studying the relationship between BI&A and management accounting.

Business intelligence and analytics for value creation: The role of absorptive capacity

Author(s): KaterinaBožič-– VladoDimovski

Year: 2019

Published: Information Sciences, Volume 485, June 2019, Pages 319-346

Abstract:

Firms continuously report increased competitive value gains from the use of business intelligence and analytics (BI&A), however, little is known about how insights from BI&A are transformed to added value to date. We have conducted fourteen in-depth, semi-structured interviews with a sample of informants in CEO positions, IT managers, CIO, Heads of R&D, as well as Market Managers from nine medium or large-sized European firms. Applying the absorptive capacity’s theoretical lens, we have provided evidence that absorptive capacity’s capabilities are an underlying foundation in the process of transforming BI&A triggered insights into valuable knowledge. Moreover, this process is supported by technological, human, and relationship assets.

Automatic detection of relationships between banking operations using machine learning

Author(s): IsraelGonzález- CarrascoJose LuisJiménez-MárquezJose LuisLópez- CuadradoBelénRuiz-Mezcua

Year: 2019

Published: Information Sciences, Volume 485, June 2019, Pages 319-346

Abstract:

In their daily business, bank branches should register their operations with several systems in order to share information with other branches and to have a central repository of records. In this way, information can be analysed and processed according to different requisites: fraud detection, accounting or legal requirements. Within this context, there is increasing use of big data and artificial intelligence techniques to improve customer experience. Our research focuses on detecting matches between bank operation records by means of applied intelligence techniques in a big data environment and business intelligence analytics. The business analytics function allows relationships to be established and comparisons to be made between variables from the bank’s daily business. Finally, the results obtained show that the framework is able to detect relationships between banking operation records, starting from not homogeneous information and taking into account the large volume of data involved in the process.

 

Business intelligence in online customer textual reviews: Understanding consumer perceptions and influential factors

Author(s): XunXuXuequnWangYibaiLi- MohammadHaghighi

Year: 2017

Published: International Journal of Information Management, Volume 37, Issue 6, December 2017, Pages 673-683

Abstract:

With the rapid development of information technology, customers not only shop online—they also post reviews on social media. This user-generated content (UGC) can be useful to understand customers’ shopping experiences and influence future customers’ purchase intentions. Therefore, business intelligence and analytics are increasingly being advocated as a way to analyze customers’ UGC in social media and support firms’ marketing activities. However, because of its open structure, UGC such as customer reviews can be difficult to analyze, and firms find it challenging to harness UGC. To fill this gap, this study aims to examine customer satisfaction and dissatisfaction toward attributes of hotel products and services based on online customer textual reviews. Using a text mining approach, latent semantic analysis (LSA), we identify the key attributes driving customer satisfaction and dissatisfaction toward hotel products and service attributes. Additionally, using a regression approach, we examine the effects of travel purposes, hotel types, star level, and editor recommendations on customers’ perceptions of attributes of hotel products and services. This study bridges customer online textual reviews with customers’ perceptions to help business managers better understand customers’ needs through UGC.

 

Hotel chain affiliation as an environmental performance strategy for luxury hotels

Author(s): Long-FeiChen

Year: 2019

Published: International Journal of Hospitality Management, Volume 77, January 2019, Pages 1-6

Abstract:

Stakeholders are increasingly aware of the potential of environmental performance to benefit their health; however, there is a paucity of sustainability studies addressing the relationship between corporate social responsibility (CSR) performance and the brand equity of hotel chains. Unlike traditional economics that treat undesired outputs such as carbon emissions as costless, this research presents an accurate, concise and clear empirical examination of hotel chain affiliation strategy through the Malmquist-Luenberger index to measure the brand competitiveness of the strategy while considering carbon emissions reduction using objective official panel data from Taiwan. The findings reveal that a group of hotel chains has a significantly higher average energy efficiency and branding value than those of a group of independent operators when holistic carbon emissions reduction is considered. Thus, this study encourages stakeholders to promote green hotel policies to independent hotel operators to achieve a higher brand value with lower carbon emissions and to adopt greater use of business intelligence to assist the decision-making of hotel operators in conformity with the United Nations (UN) Sustainable Development Goals (SDGs).

 

Towards thermal-aware Hadoop clusters

Author(s): YiZhouShubbhiTanejaGautamDudejaXiaoQinJifZhangMinghuaJiangMohammed I.Alghamdi

Year: 2018

Published: Future Generation Computer Systems, Volume 88, November 2018, Pages 40-54

Abstract:

With the exponential increase in cooling costs of large-scale data centers, thermal management must be adequately addressed. Recent trends have discovered one of the critical reasons behind the temperature rise turns out to be heat re-circulation within data center. In this study, we proposed a new resource- and thermal-aware scheduler in Hadoop clusters; our scheduler aims at minimizing peak inlet temperature across all nodes to reduce power consumption and cooling cost in data centers. The proposed dynamic scheduler makes job scheduling decisions based on current CPU/disk utilization and number of tasks running as well as the feedback given by all slave nodes at run-time. We deploy a thermal model to project respective temperature of each slave node in addition to neighbor’s heat contribution. The thermal-aware scheduler is integrated with the Hadoop’s scheduling mechanism. We test our schedulers by running a set of Hadoop benchmarks (e.g., WordCount, DistributedGrep, PI and TeraSort) under various temperature conditions, utilization thresholds, and cluster sizes. The experimental results show that our scheduler achieves an average inlet temperature reduction by 2.5 °C over the default FIFO scheduler; our scheduling solution saves approximately 15% of cooling cost with marginal performance degradation.

مروری بر کلان داده ها BIG DATA

نویسنده (گان): یعقوب سنمی علمداری

سال انتشار: ۱۳۹۵

ارائه شده در: اولین همایش ملی نگرشی نوین در مهندسی برق و کامپیوتر

چکیده:

در عصر الکترونیکی، تعداد بسیاری از سازمان ها با مشکلات افزایش داده روبرو هستند و اندازه پایگاه داده های استفاده شده در شرکت های بسیار بزرگ امروزی با یک نرخ نمایی درحال رشد است. این داده ها از طریق منابع بسیاری مانند فرآیندهای تجاری،معاملات، سایت های شبکه های اجتماعی، وب سرورها و غیره تولید می شوند. از انجاییکه پیش از این بسیاری از شرکتها قادر به ذخیره سازی این حجم از داده ها نبودند و ابزار در دسترس، توانایی مدیریت این داده ها را در یک زمان قابل قبول نداشتند بنابراین فن آوری های جدید در زمینه بیگ دیتا با تسهیل نوآوری در خدمات و محصولات مدل های کسب و کار و حمایت از آن باعث بهبود عملکرد شدند. هدف از فن آوری بیگ دیتا به حداقل رساندن هزینه ها جهت بررسی ارزش داده ها میباشد. در این مقاله مروری بیگ دیتا و مفاهیم مرتبط با آن خواهیم داشت.

تحلیل داده های بزرگ در مدیریت زنجیره تامین

نویسنده (گان): محسن گرامی و نسترن قریبی

سال انتشار: ۱۳۹۶

ارائه شده در: کنفرانس ملی فناوری های نوین در مهندسی برق و کامپیوتر

چکیده:

در عصر داده های بزرگ با توجه به حجم بالای اطلاعات سازمان ها با اینکه با مشکلات فراوانی رو به رو بوده اند, با به کارگیری تحلیل داده های بزرگ تا حد زیادی توانسته اند کارایی خود را بهبود بخشند و با یکپارچه سازی اطلاعات در زنجیره تامین توسط مبحث محاسبات ابری و داده های بزرگ هماهنگی بین اجزا و بهبود ارتباطات را حاصل کند. این مقاله به ضرورت شناخت و درک داده های بزرگ در فرایند های کسب و کار و استفاده از اطلاعات یکپارچه در عصر فناوری پرداخته تا در این راستا بتوان در بخش های مختلف زنجیره تامین از جمله ارتباط با مشتری , بازاریابی, بهینه سازی موجودی و کنترل تامین کنندگان و پیش بینی تقاضا با استفاده از کاربرد های تحلیل بیگ دیتا به نتایج رضایت بخشی رسید. در این مقاله مباحث مربوط به ویژگی و کاربرد داده های بزرگ و عدم درک تحلیل داده های بزرگ توسط سازمانها مورد بررسی قرار گرفته و پیرو آن به ارایه مدل بلوغ می پردازد. در ادامه با بررسی چالش های پیش رو، توصیه هایی در این خصوص منتج خواهد گردید.

بررسی هوش مصنوعی و زیر شاخه های آن با هدف دستیابی به یک مدل تحلیل گر منطقی براساس هوش طبیعی

نویسنده (گان): نوید محمدرحیمی

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس بین المللی پژوهش در مهندسی، علوم و کنولوژی

چکیده:

هوش مصنوعی به عنوان زیرشاخه ای از علوم کامپیوترمحسوب می شود که ارتباط تنگاتنگی با دیگر علوم دارد. هدف این شاخه الگوبرداری از ذهن انسان و شبیه سازی عملکرد آن به منظور تجزیه و تحلیل مسایل و داده ها می باشد. برای دستیابی به یک الگویی عملکردی در زمینه هوش مصنوعی، بررسی و فهم موانع و مشکلات و همچنین زیرشاخه های هوش مصنوعی از قبیل هوش معنوی، هوش پیوندگرا، الگوهای عصبی و غیره یکی از ضروری ترین مراحل می باشد. لذا در این مطالعه به بررسی هوش مصنوعی و زیرشاخه های آن با هدف دستیابی به یک مدل تحلیل گر منطقی برپایه هوش طبیعی می پردازیم تا بتوانیم مسیر پژوهش دیگر محققین را در این زمینه هموار سازیم.

طراحی مدل توسعه داشبورد سازمانی با منطق هوش تجاری در سازمان‌های دولتی

نویسنده (گان): سید علی اکبر هاشمی – حسن الوداریمحمد رضا دارایی روح الله رازینی

سال انتشار: ۱۳۹۷

ارائه شده در: نشریه مدیریت حسایداری و اقتصاد، دوره ۶، شماره ۳ (پیاپی ۲۳)، تابستان ۱۳۹۷، صفحه ۴۹-۶۴

چکیده:

در سال‌های اخیر، زمانی که مدیران برای اتخاذ تصمیمات تجاری اختصاص می‌دهند به‌طور شدیدی کاهش یافته است. در این میان شناسایی اطلاعات مهمی که باید در لحظه مورد پایش قرار گیرد، چگونگی جمع‌آوری، یکپارچه‌سازی، نمایش و تحلیل این اطلاعات بیش‌ازپیش ضروری می‌نماید. داشبورد سازمانی، ابزاری است غنی از شاخص‌ها، گزارش‌ها و نمودارها که به‌صورت پویا عمل کرده تا مدیران با استناد به آن بتوانند در هرلحظه عملکرد سازمان را مشاهده نمایند. لیکن جهت بهره‌ور شدن داده‌ها، استفاده از منطق هوش تجاری اجتناب‌ناپذیر است. هوش تجاری سیستمی است که داده‌های مختلف، پراکنده و ناهمگون یک سازمان را یکپارچه و منسجم می‌کند و از طریق تشکیل پایگاه داده تحلیلی می‌تواند گزارش‌های تحلیلی را برای تصمیم‌گیری مدیران سازمان فراهم کند. این پژوهش با استفاده از مطالعه عمیق ادبیات موضوع، تعداد ۳۵۷ کد مربوط به توسعه داشبورد سازمانی با منطق هوش تجاری را شناسایی و با استفاده از روش‌های کیفی تحلیل مضمون و گروه کانونی این کدها را به ۲۴ مضمون پایه و ۷ مضمون سازمان دهنده تبدیل کرد. در مرحله بعد در دو مرحله مجرا با استفاده از روش مدل‌سازی ساختاری تفسیری به مدل‌سازی مضامین پایه و مضامین سازمان دهنده به‌طور مجزا پرداخته و با توجه به همخوانی دو مدل‌سازی اقدام به تلفیق دو مدل و ایجاد مدل نهایی توسعه داشبورد سازمانی با منطق هوش تجاری نموده است که می‌تواند نقشه راهی دقیق برای سازمان‌های دولتی جهت طراحی و پیاده‌سازی این سیستم باشد.

Integrating of Data Using the Hadoop and R

Author(s): RaissaUskenbayeva_ abuKuandykov_ Young ImChoTolganayTemirbolatovaSauleamanzholovaDinaraKozhamzharova

Year: 2015

Published: Procedia Computer Science, Volume 56, 2015, Pages 145-149

Abstract:

The article offers a data integration model, which must be supported by a unified view of disparate data sources, management of integrity constraints, management of data manipulation and query executing operations, matching data from various sources, the ability to expand and set up new data sources. The proposed approach is the integration of Hadoop-based data and R, which is popular for processing statistical information. Hadoop database contains libraries, Distributed File System (HDFS), and resource management platform and implements a version of the MapReduce programming model for processing large-scale data. This model allows us to integrate various data sources at any level, by setting arbitrary links between circuit elements, constraints and operations.

Towards thermal-aware Hadoop clusters

Author(s): YiZhou_ ShubbhTaneja_Gautamudeja_ XiaoQin_ JifuZhangMinghuaJiangMohammed I.Alghamdi

Year: 2019

Published: Future Generation Computer Systems, Volume 88, November 2018, Pages 40-54

Abstract:

With the exponential increase in cooling costs of large-scale data centers, thermal management must be adequately addressed. Recent trends have discovered one of the critical reasons behind the temperature rise turns out to be heat re-circulation within data center. In this study, we proposed a new resource- and thermal-aware scheduler in Hadoop clusters; our scheduler aims at minimizing peak inlet temperature across all nodes to reduce power consumption and cooling cost in data centers. The proposed dynamic scheduler makes job scheduling decisions based on current CPU/disk utilization and number of tasks running as well as the feedback given by all slave nodes at run-time. We deploy a thermal model to project respective temperature of each slave node in addition to neighbor’s heat contribution. The thermal-aware scheduler is integrated with the Hadoop’s scheduling mechanism. We test our schedulers by running a set of Hadoop benchmarks (e.g., WordCount, DistributedGrep, PI and TeraSort) under various temperature conditions, utilization thresholds, and cluster sizes. The experimental results show that our scheduler achieves an average inlet temperature reduction by 2.5 °C over the default FIFO scheduler; our scheduling solution saves approximately 15% of cooling cost with marginal performance degradation.

Mapreduce performance model for Hadoop 2.x

Author(s): WenTaiWuWeiWeiLinChing-HsienHsu_ LiGangHe

Year: 2019

Published: Information Systems ,Volume 79, January 2019, Pages 32-43

Abstract:

MapReduce is a popular programming model for distributed processing of large data sets. Apache Hadoop is one of the most common open-source implementations of such paradigm. Performance analysis of concurrent job executions has been recognized as a challenging problem, at the same time, that may provide reasonably accurate job response time estimation at significantly lower cost than experimental evaluation of real setups. In this paper, we tackle the challenge of defining MapReduce performance model for Hadoop 2.x. While there are several efficient approaches for modeling the performance of MapReduce workloads in Hadoop 1.x, they could not be applied to Hadoop 2.x due to fundamental architectural changes and dynamic resource allocation in Hadoop 2.x. Thus, the proposed solution is based on an existing performance model for Hadoop 1.x, but taking into consideration architectural changes and capturing the execution flow of a MapReduce job by using queuing network model. This way, the cost model reflects the intra-job synchronization constraints that occur due the contention at shared resources. The accuracy of our solution is validated via comparison of our model estimates against measurements in a real Hadoop 2.x setup.

Energy-efficient hadoop for big data analytics and computing: A systematic review and research insights

Author(s): WenTaiWuWeiWeiLinChing-HsienHsu_ LiGangHe

Year: 2019

Published: Futur Generation Computer Systems , Volume 86, September 2018, Pages 1351-1367

Abstract:

As the demands for big data analytics keep growing rapidly in scientific applications and online services, MapReduce and its open-source implementation Hadoop gained popularity in both academia and enterprises. Hadoop provides a highly feasible solution for building big data analytics platforms. However, defects of Hadoop are also exposed in many aspects including data management, resource management, scheduling policies, etc. These issues usually cause high energy consumption when running MapReduce jobs in Hadoop clusters. In this paper, we review the studies on improving energy efficiency of Hadoop clusters and summarize them in five categories including the energy-aware cluster node management, energy-aware data management, energy-aware resource allocation, energy-aware task scheduling and other energy-saving schemes. For each category, we briefly illustrate its rationale and comparatively analyze the relevant works regarding their advantages and limitations. Moreover, we present our insights and figure out possible research directions including energy-efficient cluster partitioning, data-oriented resource classification and provisioning, resource provisioning based on optimal utilization, EE and locality aware task scheduling, optimizing job profiling with machine learning, elastic power-saving Hadoop with containerization and efficient big data analytics on Hadoop. On one hand, the summary of studies on energy-efficient Hadoop presented in this paper provides useful guidance for the developers and users to better utilize Hadoop. On the other hand, the insights and research trends discussed in this work may inspire the relevant research on improving the energy efficiency of Hadoop in big data analytics.

.

The influence of big data system for used product management on manufacturing–remanufacturing operations

Author(s): FangchaoXu- YgjianLiLi- panFeng

Year: 2018

Published: Scandinavian Journal of Management, Volume 34, Issue 2, June 2018, Pages 129-140

Abstract:

In these years, more and more manufacturers implement closed-loop operations and incorporate remanufacturing into its manufacturing system, which forms manufacturing-remanufacturing operations. To increase the efficiency of used product collection, many remanufacturers have established quality valuation system to acquire big data of used products. A quality-dependent acquisition process helps remanufacturers collect used products according to products’ actual condition and perceived value from the perspective of consumers, but may incur extra operation cost. This study aims to explore the influence of quality valuation big data system on manufacturers’ manufacturing/remanufacturing operation decisions. This paper studies a manufacturer which produces new products and remanufactures the returned products, and sells two kinds of products to the same market. We focus on quantity decisions on manufacturers’ manufacturing/remanufacturing operations. Focusing on the availability of big data of used products, two optimization models, fixed collection pricing mechanism and discriminatory collection pricing mechanism, are analyzed to explore the impact of quality big data of used products on firms’ manufacturing–remanufacturing operations. As the obtained conclusions, in both fixed and discriminatory collection pricing mechanisms, the manufacturer takes full/partial remanufacturing strategy under different conditions. And the manufacturer prefers different collection pricing mechanisms according to various levels of consumers’ perceived value of used products and the acquisition cost of big data.

Big data analytics architecture design—An application in manufacturing systems

Author(s): MahdiFahmidehGhassanBeydoun

Year: 2019

Published: Computers & Industrial Engineering, Volume 128, February 2019, Pages 948-963

Abstract:

Context

The rapid prevalence and potential impact of big data analytics platforms have sparked an interest amongst different practitioners and academia. Manufacturing organisations are particularly well suited to benefit from data analytics platforms in their entire product lifecycle management for intelligent information processing, performing manufacturing activities, and creating value chains. This needs a systematic re-architecting approach incorportaitng careful and thorough evaluation of goals for integrating manufacturing legacy information systems with data analytics platforms. Furthermore, ameliorating the uncertainty of the impact the new big data architecture on system quality goals is needed to avoid cost blowout in implementation and testing phases.

Objective

We propose an approach for goal-obstacle analysis and selecting suitable big data solution architectures that satisfy quality goal preferences and constraints of stakeholders at the presence of the decision outcome uncertainty. The approach will highlight situations that may impede the goals. They will be assessed and resolved to generate complete requirements of an architectural solution.

Method

The approach employs goal-oriented modelling to identify obstacles causing quality goal failure and their corresponding resolution tactics. Next, it combines fuzzy logic to explore uncertainties in solution architectures and to find an optimal set of architectural decisions for the big data enablement process of manufacturing systems.

Result

The approach brings two innovations to the state of the art of big data analytics platform adoption in manufacturing systems: (i) A goal-oriented modelling for exploring goals and obstacles in integrating systems with data analytics platforms at the requirement level and (ii) An analysis of the architectural decisions under uncertainty. The efficacy of the approach is illustrated with a scenario of reengineering a hyper-connected manufacturing collaboration system to a new big data architecture.

بکارگیری هوش تجاری در سیستم مدیریت منابع انسانی

نویسنده (گان): حکیم علی پور سیاهکلی, سحر و حامد فضل الله تبار

سال انتشار: ۱۳۹۳

ارائه شده در: اولین کنفرانس بین المللی مهندسی صنایع، مدیریت و حسابداری

چکیده:

هوش تجاری نقش حیاتی برای دستیابی به مزیت رقابتی در اقتصاد چالش برانگیزی که در آن هستیم، ایفا می کند. کسب و کارها با استفاده از هوش تجاری قادر به توسعه سیستم های اطلاعاتی مبتنی بر اطلاعات نهان هستند تا بینشی نسبت به کسب و کار ایجاد کنند که به آنها در اخذ تصمیمات سریع تر و قابل اعتمادتر کمک کند. در حالی که بسیاری از سازمان ها استفاده از هوش تجاری در بسیاری از نواحی کسب و کار خود آغاز کرده اند، اما آنها از مزایای آن در حوزه مدیریت منابع انسانی، غافل شده اند. در این مقاله از هوش تجاری در طراحی سیستم اطلاعاتی منابع انسانی استفاده شده است با ترکیب هوش تجاری و تجزیه و تحلیل داده ها در طراحی پروتکل های مدیریت منابع انسانی و استراتژی های پایگاه داده، سازمان ها می توانند به شناسایی و نگهداری افراد مناسب، آموزش آنان با مهارت های مناسب، تعیین حد مناسب، سازماندهی آنان در مسیر مناسب، اطمینان از جبران قابل رقابت، ارتقاء افراد مناسب به نقشهای مناسب، بپردازند و برای منابع انسانی می تواند مقدار ارزش قابل توجه بیشتری را ایجاد کند.

Modeling and performance optimization of automated antenna alignment for telecommunication transceivers

Author(s): Md. AhsanulHoque- Ahmad KamalHassan

Year: 2015

Published: Engineering Science and Technology, an International Journal, Volume 18, Issue 3, September 2015, Pages 351-360

Abstract:

Antenna alignment is very cumbersome in telecommunication industry and it especially affects the MW links due to environmental anomalies or physical degradation over a period of time. While in recent years a more conventional approach of redundancy has been employed but to ensure the LOS link stability, novel automation techniques are needed. The basic principle is to capture the desired Received Signal Level (RSL) by means of an outdoor unit installed on tower top and analyzing the RSL in indoor unit by means of a GUI interface. We have proposed a new smart antenna system where automation is initiated when the transceivers receive low signal strength and report the finding to processing comparator unit. Series architecture is used that include loop antenna, RCX Robonics, LabVIEW interface coupled with a tunable external controller. Denavit–Hartenberg parameters are used in analytical modeling and numerous control techniques have been investigated to overcome imminent overshoot problems for the transport link. With this novel approach, a solution has been put forward for the communication industry where any antenna could achieve optimal directivity for desired RSL with low overshoot and fast steady state response.

.

انتخاب تکنولوژی مخابراتی بهینه در شبکه هوشمند

نویسنده (گان): اعظم مظفری – گروه مخابرات- پژوهشکده کنترل و مدیریت شبکه پژوهشگاه نیرو تهران

سال انتشار: ۱۳۹۳

ارائه شده در: بیست و نهمین کنفرانس بین المللی برق

چکیده:

با توجه به اهمیت شبکه های هوشمند در صنعت برق و لزوم پیاده سازی سیستم های مخابراتی با قابلیت های مورد نیاز صنعت برق و شبکه هوشمند، در این مقاله به بررسی تکنولوژی های مخابراتی قابل استفاده در شبکه های مختلف مخابراتی لایه های شبکه هوشمند پرداخته شده است. بر اساس نیازهای مخابراتی هر یک از شبکه های مخابراتی، در این مقاله به چگونگی ارزیابی و انتخاب سیستم های مخابراتی مختلف در شبکه های NAN/FAN اختصاص یافته است. برای دستیابی به این امر، از روش سلسله مراتبی AHP جهت مقایسه معیارهای فنی و اقتصادی بهره گرفته شده و با استفاده از نظر متخصصان صنعت برق به پارامترهای مهم و اساسی هر یک از تکنولوژی ها امتیاز داده شده و در نهایت سیستم مخابراتی بهینه بر اساس وزن پارامترهای تعیین شده انتخاب گردیده است. در این بررسی سیستم های مخابرات نوری، سیستم WiMAX مخابرات ماهواره ای، مخابرات سیمی شرکت مخابرات، با توجه به پارامترهای کارایی، قابلیت اطمینان، امنیت، هزینه و قابلیت کنترل مورد ارزیابی قرار گرفته و با استفاده از نرم افزار Expert Choice امتیازدهی شده اند. تکنولوژی مخابرات نوری در این ارزیابی، بالاترین امتیاز را کسب نموده و بهترین سیستم مخابراتی جهت کاربردهای شبکه هوشمند در شبکه های NAN/FAN معرفی گردیده است. البته با توجه به بسیاری از پارامترها از جمله وسعت جغرافیایی و نوع ارتباطات، تکنولوژی قابل استفاده در سیستم مخابرات نوری می تواند PDH ،SDH و یا FTTx باشد که در این مقاله به نحوه عملکرد آن ها نپرداخته است. در . در این مقاله، بسترهای مخابراتی مناسب در شبکه های مختلف مورد نیاز شبکه هوشمند بیان شده و راهکار انتخاب تکنولوژی مخابراتی مناسب در شبکه های NAN/FAN ارائه شده است تا بتوان مراحل مذکور را جهت انتخاب یک سیستم مخابراتی بهینه در شرایط متفاوت تکرار نمود. تجاری اجتناب‌ناپذیر است. هوش تجاری سیستمی است که داده‌های مختلف، پراکنده و ناهمگون یک سازمان را یکپارچه و منسجم می‌کند و از طریق تشکیل پایگاه داده تحلیلی

Urban Big Data and the Development of City Intelligence

Author(s): YunhePan- YunTan_ XiaolongLiu_ DedaoGu_ GangHua

Year: 2016

Published: Computers, Environment and Urban Systems, Available online 14 November 2018

Abstract:

This study provides a definition for urban big data while exploring its features and applications of China’s city intelligence. The differences between city intelligence in China and the “smart city” concept in other countries are compared to highlight and contrast the unique definition and model for China’s city intelligence in this paper. Furthermore, this paper examines the role of urban big data in city intelligence by showing that it not only serves as the cornerstone of this trend as it also plays a core role in the diffusion of city intelligence technology and serves as an inexhaustible resource for the sustained development of city intelligence. This study also points out the challenges of shaping and developing of China’s urban big data. Considering the supporting and core role that urban big data plays in city intelligence, the study then expounds on the key points of urban big data, including infrastructure support, urban governance, public services, and economic and industrial development. Finally, this study points out that the utility of city intelligence as an ideal policy tool for advancing the goals of China’s urban development. In conclusion, it is imperative that China make full use of its unique advantages—including using the nation’s current state of development and resources, geographical advantages, and good human relations—in subjective and objective conditions to promote the development of city intelligence through the proper application of urban big data.

Constructing large scale surrogate models from big data and artificial intelligence

Author(s): Ruth C.CarlosMD, MS- Charles E.KahnMD, MS- SafwanHalabiMD

Year: 2018

Published: Applied Energy, Volume 202, 15 September 2017, Pages 685-699

Abstract:
EnergyPlus is the U.S. Department of Energy’s flagship whole-building energy simulation engine and provides extensive simulation capabilities. However, the computational cost of these capabilities has resulted in annual building simulations that typically requires 2–۳ min of wall-clock time to complete. While EnergyPlus’s overall speed is improving (EnergyPlus 7.0 is 25–۴۰% faster than EnergyPlus 6.0), the overall computational burden still remains and is the top user complaint. In other engineering domains, researchers substitute surrogate or approximate models for the computationally expensive simulations to improve simulation and reduce calibration time. Previous work has successfully demonstrated small-scale EnergyPlus surrogate models that use 10–۱۶ input variables to estimate a single output variable. This work leverages feed forward neural networks and Lasso regression to construct robust large-scale EnergyPlus surrogate models based on 3 benchmark datasets that have 7–۱۵۶ inputs. These models were able to predict 15-min values for most of the 80–۹۰ simulation outputs deemed most important by domain experts within 5% (whole building energy within 0.07%) and calculate those results within 3 s, greatly reducing the required simulation runtime for relatively close results. The techniques shown here allow any software to be approximated by machine learning in a way that allows one to quantify the trade-off of accuracy for execution time.

Data Science: Big Data, Machine Learning, and Artificial Intelligence

Author(s): Ruth C.CarlosMD, MS- Charles E.KahnMD, MS- SafwanHalabiMD

Year: 2018

Published: Journal of the American College of Radiology, Voume 15, Issue 3, Part B, March 2018, Pages 497-498

Abstract:
In the article titled “Data Science: Big Data, Machine Learning, and Artificial Intelligence” by Ruth C. Carlos, Charles E. Kahn, and Safwan Halabi, which was published in the March issue of JACR (2018;15:497-498), the name of Armin Moehrle was misspelled. The error is regretted. The online version has been corrected and shows the accurate spelling for Armin Moehrle.

Big Data analytics in oil and gas industry: An emerging trend

Author(s): MehdiMohammadpoor- FarshidTorabi

Year: 2018

Published: Petroleum, Available online 1 December 2018

Abstract:
This paper reviews the utilization of Big Data analytics, as an emerging trend, in the upstream and downstream oil and gas industry. Big Data or Big Data analytics refers to a new technology which can be employed to handle large datasets which include six main characteristics of volume, variety, velocity, veracity, value, and complexity. With the recent advent of data recording sensors in exploration, drilling, and production operations, oil and gas industry has become a massive data intensive industry. Analyzing seismic and micro-seismic data, improving reservoir characterization and simulation, reducing drilling time and increasing drilling safety, optimization of the performance of production pumps, improved petrochemical asset management, improved shipping and transportation, and improved occupational safety are among some of the applications of Big Data in oil and gas industry. Although the oil and gas industry has become more interested in utilizing Big Data analytics recently, but, there are still challenges mainly due to lack of business support and awareness about the Big Data within the industry. Furthermore, quality of the data and understanding the complexity of the problem are also among the challenging parameters facing the application of Big Data.

Critical analysis of Big Data challenges and analytical methods

Author(s): UthayasankarSivarajah- Muhammad MustafaKamal- ZahirIrani- VishanthWeerakkody

Year: 2017

Published: Journal of Business Research, Volume 70, January 2017, Pages 263-286

Abstract:
Big Data (BD), with their potential to ascertain valued insights for enhanced decision-making process, have recently attracted substantial interest from both academics and practitioners. Big Data Analytics (BDA) is increasingly becoming a trending practice that many organizations are adopting with the purpose of constructing valuable information from BD. The analytics process, including the deployment and use of BDA tools, is seen by organizations as a tool to improve operational efficiency though it has strategic potential, drive new revenue streams and gain competitive advantages over business rivals. However, there are different types of analytic applications to consider. Therefore, prior to hasty use and buying costly BD tools, there is a need for organizations to first understand the BDA landscape. Given the significant nature of the BD and BDA, this paper presents a state-of-the-art review that presents a holistic view of the BD challenges and BDA methods theorized/proposed/employed by organizations to help others understand this landscape with the objective of making robust investment decisions. In doing so, systematically analysing and synthesizing the extant research published on BD and BDA area. More specifically, the authors seek to answer the following two principal questions: Q1 – What are the different types of BD challenges theorized/proposed/confronted by organizations? and Q2 – What are the different types of BDA methods theorized/proposed/employed to overcome BD challenges?. This systematic literature review (SLR) is carried out through observing and understanding the past trends and extant patterns/themes in the BDA research area, evaluating contributions, summarizing knowledge, thereby identifying limitations, implications and potential further research avenues to support the academic community in exploring research themes/patterns. Thus, to trace the implementation of BD strategies, a profiling method is employed to analyze articles (published in English-speaking peer-reviewed journals between 1996 and 2015) extracted from the Scopus database. The analysis presented in this paper has identified relevant BD research studies that have contributed both conceptually and empirically to the expansion and accrual of intellectual wealth to the BDA in technology and organizational resource management discipline

کاربرد هوش مصنوعی و اهمیت آن در هوش تجاری و زندگی انسان ها

نویسنده (گان): فرشاداحمدی؛ سیدمحمدرضا موسوی؛ آرزو رهنمافلاورجانی و محمدرضا محمدشفیعی

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس بین المللی علوم و مهندسی

چکیده:

امروزه به دلیل گسترش دانش و پیچیدهتر شدن فرآیند تصمیم گیری، استفاده از سیستمهای اطلاعاتی به خصوص سیستم های در حمایت از هوش مصنوعی، اهمیت بیشتری پیدا کرده است . همچنین به کمک این علم بشر به دستاوردهای زیادی رسیده است که خواه مفید و خواه خطرناک است. ازجمله ی این موفقیت ها می توان به پیشرفت در تجارت و کمک به زندگی انسان ها در خدمات رسانی بهتر و به صرفه تر نام برد. هوش مصنوعی رابطهی تنگاتنگی با علوم مختلف دارد که از مهمترین آنها میتوان به منطق ریاضی و مهندسی نام برد که کمک زیادی به علم رباتیک کرده است و موجب شده انسان به پیشرفت های قابل توجهی دست یابد. بعلاوه در هوش تجاری که مقوله ای از هوش مصنوعی است با جست و جو، استفاده از فناوری ها، ابداع، آزمون و تصمیم گیری کسب و کار مردم و همچنین بازار های جهانی و به طور کل اقتصاد جهانی به پیشرفت های زیادی رسیده است.

بررسی تاثیر هوش تجاری بر مدیریت منابع انسانی و ارتقای سازمان

نویسنده (گان): سمیه قربانیان و اعظم عندلیب

سال انتشار: ۱۳۹۵

ارائه شده در: اولین کنفرانس ملی مهندسی کامپیوتر، علوم کامپیوتر و فناوری اطلاعات

چکیده:

هدف : این پژوهش یک مطالعه مروری است که به بررسی تأثیر هوش تجاری بر مدیریت منابع سازمانی و ارتقای سازمان می پردازد. در این راستا، منابع موجود، اعم از مقالات علمی پژوهشی و کتب مرتبط گردآوری گشت. سپس بر پایه یافته های پژوهشگران این حوزه روش های تأثیر هوش تجاری بر سازمان ها شناسایی شد. در پایان یافته ها نشان دادند با توجه به جدول بالا می توان دریافت که هوش تجاری در گام نخست از راه افزایش دانش و شناخت بر میزان استفاده از تکنولوژی و شبکه های ارتباطی افزوده و سپس در فرآیند تصمیم گیری و برنامه ریزی تأثیر نهاده و سبب پیش بینی نیاز بازار، مشتریان و خطرات احتمالی از سوی رقبا می گردد. این فرآیند سبب می شود تا افزایش هوش تجاری بر مدیریت منابع انسانی و ارتقای سازمان ها تأثیر مثبت و بهینه داشته باشد. از این رو به مدیران سازمان ها پیشنهاد می گردد تا با آموزش روش های ارتقای هوش تجاری به کارکنان به افزایش کیفیت مدیریت منابع سازمان و افزایش بازدهی سازمان کمک نمایند. همچنین به پژوهشگران پیشنهاد می شود تا به بررسی نشانه های هوش تجاری پرداخته، تا کارکنان سازمان ها بتوانند با افزایش رفتارهای برخاسته از هوش تجاری به صورت مهندسی معکوس بر میزان هوش تجاری خویش بیفزایند.

قضایایی از ضرورت و اهمیت پیاده سازی هوش تجاری در سازمان ها

نویسنده (گان): سالاریان, محسن؛ منیر متاجی نیموری و طاهره پورلاهیجی

سال انتشار: ۱۳۹۲

ارائه شده در: دومین همایش ملی علوم مدیریت نوین

چکیده:

هدف : بررسی ضرورت و اهمیت هوش تجاری به عنوان یکی از سیستم های نوین فناروی اطلاعات در سازمان ها روش: این مقاله در دو بخش سازماندهی شده است. درمقاله حاضر ابتدا نقش هوشمندی در کسب و کارها و ضرورت استتااده از هوش تجاری درسازمان ها توضیح داده شده ودر ادامه فاکتورهای مهم درایجاد شرایط مطلوب برای هوش تجتاری درستازمان مورد بررسی قرارگرفته است. سپس زیرساخت های نرم افزاری و سخت افزاری مورد نیازآن تشریح شده و درنهایت پیشتنهاداتی جهت استفاده و پیاده سازی بهتر سیستم های هوش تجاری در سازمان ها داده شده است. یافته ها : با توجه به تحقیقات انجام شده در زمینه شناسایی عوامل و فاکتور های اثرگذار جهت اجرایی شدن هوش تجاری در سازمان قضایی همچون ضرورت استفاده از هوش تجاری در سازمان ها، هدف های سیستم های هوش تجاری، مراحل هوش تجاری، مراحل هوش تجاری، شناسایی و آماده سازی داده ها برای سیستم هوش تجاری، اهداف زیر ساختی هوش تجاری، سودمندی های بالقوه کاربرد سیستم های هوش تجاری، شاخص های سازمانی تاثیر گذار بر هوش تجاری، اجزا و مهارت های لازم برای ارتقای هوشمندی کسب و کار مورد بحث و بررسی قرار خواهد گرفت. در پایان نشان خواهیم داد که تصمیم گیری در زمینه اجرایی شدن سیستم هوش تجاری به نتوان یکی از راهکارهای نوین فناوری اطلاعات چگونه در روند بهبود عموکرد سازمانی و ارتقای جایگاه سازمان ها به شرح تحویل و تاثیر درست اثرگذار خواهد بود.

Applying intelligent data traffic adaptation to high-performance multiple big data analytics platforms

Author(s): Bao RongChang-Hsiu-FenTsai- Po-HaoLiao

Year: 2018

Published: Computers & Electrical Engineering, Volume 70, August 2018, Pages 998-1018

Abstract:
This paper introduces the integration of two data processing platforms, RHhadoop and SparkR, to carry out rapid big data retrieval and analytics using R programming, which can serve as part of business intelligence. Besides, it has developed the job scheduling optimization called Memory-Sensitive Heterogeneous Earliest Finish Time algorithm to enhance system throghput. However, the bottleneck of system throughput is definitely relevant to data traffic problem over network, especially a large amount of data exchange between distributed computing nodes within a cluster. The objective of this paper is to propose an intelligence approach to tackle the crucial problems of inefficient data traffic flow. Adaptive network-based fuzzy inference system along with particle swarm optimization has employed to tune the network-related parameters at computing nodes for improving network QoS and speed up data transportation significantly. In order to examine the computing efficiency, performance index has been evaluated for all of treatments in the experiment

How Does Business Intelligence Solutions can Streamline and Influence Transport Networks

Author(s): Antoniu OvidiuBalint- MihaelaToma

Year: 2015

Published: Procedia Economics and Finance, Volume 20, 2015, Pages 59-64

Abstract:

For the development of a successful and modern economy, transport companies must be able to ensure a fluently and efficient transport mode for goods and persons. Failure to comply with these requirements constitutes a threat to the competitiveness and also reflects the unsustainable use of transport infrastructure. The importance of developing new Intelligent Transport Systems (ITS) is essential for the growth and evolution of the economy because companies from around the world have to transfer goods between them, communicate and establish new connections.

The central theme of this paper is represented by the fact that Intelligent Transport Systems are indispensable for companies worldwide. The extension and development of new ITS can represent a solution on improving and enhance the actual economic environment

پیش بینی ترافیک و مسیریابی با استفاده از سیستم های تصمیم یار

نویسنده (گان): مرتضی رموزی _ علیرضا شفاعت

سال انتشار: ۱۳۹۷

ارائه شده در: دومین همایش ملی دانش و فناوری مهندسی برق، کامپیوتر و مکانیک ایران

چکیده:

باتوجه به پیشرفت تکنولوژی و نیاز جوامع به بهره گیری از فناوری های نوین ارتباطی برای تحقیق و دستیابی به شهرها و خودروهای هوشمند استفاده از ابزارهای نوین به عنوان امری ضروری مطرح گردید.سیستم تصمیم یار یا دی اس اس به عنوان یکی از ابزارهای این فناوری ها با هدف ارتقای وضعیت حمل و نقل و ترافیک شهری در شبکه های بین خودرویی به کار گرفته می شود . سیستم تصمیم یار سیسنمی است که برای پشتیبانی از تصمیم گیرندگان در موقعیت های تصمیم گیری شبه ساختار یافته به کار می رود.یکی از موارد کاربرد این سیستمها انتخاب مسیر بهینه می باشد.این مسیر می تواند با توجه به فاکتورهایی همچون میزان مسافت،مدت زمان طی مسیر ،میزان مصرف سوخت،ترافیک مسیر و غیره تعیین شود.در این مقاله سعی شده است تا با استفاده از روشهای داده کاوی و سری های زمانی سیستمی ارایه شود که بتواند با استفاده از تلفن همراه به انتخاب مسیر مناسب با توجه به وضعیت ترافیک کمک کند.

بررسی تاثیر استفاده از هوش تجاری در موفقیت صنعت بیمه

نویسنده (گان): رزازی بروجنی حامد,کاهیدباصیری مهدی

سال انتشار: ۱۳۹۴

ارائه شده در:کنفرانس بین المللی فناوری اطلاعات، ارتباطات و مخابرات

چکیده:

مهمترین شاخص بقای یک صنعت دریافت اطلاعات مفید، دقیق و به موقع است که یک اعتبار بلند مدت برای آن صنعت محسوب می شود و صنعت بیمه از جمله نمونه های بارز نیازمند این شاخص هاست که از طریق شاه رگ حیاتی خود که همان هوش تجاری است می تواند در بازارهای رقابتی سنگین موفق عمل کند. پژوهش حاضر که مطالعه ای توصیفی است با هدف بررسی تاثیر استفاده از هوش تجاری در موفقیت صنعت بیمه انجام شده است و به عنوان نمونه مدلی کاربردی از کشور چین را مورد مطالعه قرار داده است. نتایج حاکی از آن است که هوش تجاری مهم ترین فاکتور توسعه در بازار رقابتی صنعت بیمه است.

BankSealer: A decision support system for online banking fraud analysis and investigation

Author(s):MicheleCarminati- RobertoCaron- FedericoMaggi- IleniaEpifani- StefanoZanero

Year: 2015

Published: Computers & Security, Volume 53, September 2015, Pages 175-186

Abstract:

The significant growth of online banking frauds, fueled by the underground economy of malware, raised the need for effective fraud analysis systems. Unfortunately, almost all of the existing approaches adopt black box models and mechanisms that do not give any justifications to analysts. Also, the development of such methods is stifled by limited Internet banking data availability for the scientific community. In this paper we describe BankSealer, a decision support system for online banking fraud analysis and investigation. During a training phase, BankSealer builds easy-to-understand models for each customer’s spending habits, based on past transactions. First, it quantifies the anomaly of each transaction with respect to the customer historical profile. Second, it finds global clusters of customers with similar spending habits. Third, it uses a temporal threshold system that measures the anomaly of the current spending pattern of each customer, with respect to his or her past spending behavior. With this threefold profiling approach, it mitigates the under-training due to the lack of historical data for building well-trained profiles, and the evolution of users’ spending habits over time. At runtime, BankSealer supports analysts by ranking new transactions that deviate from the learned profiles, with an output that has an easily understandable, immediate statistical meaning.

Our evaluation on real data, based on fraud scenarios built in collaboration with domain experts that replicate typical, real-world attacks (e.g., credential stealing, banking trojan activity, and frauds repeated over time), shows that our approach correctly ranks complex frauds. In particular, we measure the effectiveness, the computational resource requirements and the capabilities of BankSealer to mitigate the problem of users that performed a low number of transactions. Our system ranks frauds and anomalies with up to 98% detection rate and with a maximum daily computation time of 4 min. Given the good results, a leading Italian bank deployed a version of BankSealer in their environment to analyze frauds.

Filter hashtag context through an original data cleaning method

Author(s): DidierHenry- ErickStattner- MartineCollard

Year: 2018

Published: Procedia Computer Science, Volume 130, 2018, Pages 464-471

Abstract:

Nowadays, social networks are one of the most used means of communication. For example, the social network Twitter has nearly 100 million active users who post about 500 million messages per day. Sharing information on this platform is unique because messages are limited in characters number. Faced with this limitation, users express themselves briefly and use sometimes a hashtag that summarizes the general idea of the message. Nevertheless, hashtags are noisy data because they do not respect any linguistic rule, may have several meanings, and their use is not under control. In this work, we tackle the problem of hashtag context which may have useful applications in several fields like information recommendation or information classification. In this paper, we propose an original data cleaning method to extract the most relevant neighbor hashtags of a hashtag. We test our method with a dataset containing hashtags related to several topics (such as sport, music, technology, etc.) in order to show the efficacy and the robustness of our approach.

Cloud BI: Future of business intelligence in the Cloud

Author(s): HussainAl-Aqrabi- LuLiu- RihardHill- NikAntonopoulos

Year: 2015

Published: Jurnal of Computer and System Science, Volume 81, Issue 1, February 2015, Pages 85-96

Abstract:

In self-hosted environments it was feared that business intelligence (BI) will eventually face a resource crunch situation due to the never ending expansion of data warehouses and the online analytical processing (OLAP) demands on the underlying networking. Cloud computing has instigated a new hope for future prospects of BI. However, how will BI be implemented on Cloud and how will the traffic and demand profile look like? This research attempts to answer these key questions in regards to taking BI to the Cloud. The Cloud hosting of BI has been demonstrated with the help of a simulation on OPNET comprising a Cloud model with multiple OLAP applicaton servers applying parallel query loads on an array of servers hosting retional databases. The simulation results reflected that extensible parallel processing of database servers on the Cloud can efficiently process OLAP application demands on Cloud computing.

The influence of big data system for used product management on manufacturing–remanufacturing operations

Author(s):FangchaoXu-YongjianLi- LipanFeng

Year: 2019

Published: Journal of Cleaner Production, Volume 209, 1 February 2019, Pages 782-794, Volume 209, 1 February 2019, Pages 782-794

Abstract:

In these years, more and more manufacturers implement closed-loop operations and incorporate remanufacturing into its manufacturing system, which forms manufacturing-remanufacturing operations. To increase the efficiency of used product collection, many remanufacturers have established quality valuation system to acquire big data of used products. A quality-dependent acquisition process helps remanufacturers collect used products according to products’ actual condition and perceived value from the perspective of consumers, but may incur extra operation cost. This study aims to explore the influence of quality valuation big data system on manufacturers’ manufacturing/remanufacturing operation decisions. This paper studies a manufacturer which produces new products and remanufactures the returned products, and sells two kinds of products to the same market. We focus on quantity decisions on manufacturers’ manufacturing/remanufacturing operations. Focusing on the availability of big data of used products, two optimization models, fixed collection pricing mechanism and discriminatory collection pricing mechanism, are analyzed to explore the impact of quality big data of used products on firms’ manufacturing–remanufacturing operations. As the obtained conclusions, in both fixed and discriminatory collection pricing mechanisms, the manufacturer takes full/partial remanufacturing strategy under different conditions. And the manufacturer prefers different collection pricing mechanisms according to various levels of consumers’ perceived value of used products and the acquisition cost of big data.

BIGOWL: Knowledge centered Big Data analytics

Author(s):CristóbalBarba-GonzálezJoséGarcía-NietoMaría del MarRoldán

Year: 2019

Published:Expert Systems with Applications, Volume 115, January 2019, Pages 543-556

Abstract:

Knowledge extraction and incorporation is currently considered to be beneficial for efficient Big Data analytics. Knowledge can take part in workflow design, constraint definition, parameter selection and configuration, human interactive and decision-making strategies. This paper proposes BIGOWL, an ontology to support knowledge management in Big Data analytics. BIGOWL is designed to cover a wide vocabulary of terms concerning Big Data analytics workflows, including their components and how they are connected, from data sources to the analytics visualization. It also takes into consideration aspects such as parameters, restrictions and formats. This ontology defines not only the taxonomic relationships between the different concepts, but also instances representing specific individuals to guide the users in the design of Big Data analytics workflows. For testing purposes, two case studies are developed, which consists in: first, real-world streaming processing with Spark of traffic Open Data, for route optimization in urban environment of New York city; and second, data mining classification of an academic dataset on local/cloud platforms. The analytics workflows resulting from the BIGOWL semantic model are validated and successfully evaluated.

Wireless and Mobile Network Modeling, Analysis, Design, Optimization, and Simulation

Author(s): ChengLi- FalkoDressler

Year: 2016

Published: Coputer Communications, Volume 73, Part A, 1 January 2016, Pages 80-81

Abstract:

Cheng Li received the B.Eng. and M.Eng. degrees from Harbin Institute of Technology, Harbin, P. R. China, in 1992 and 1995, respectively, and the Ph.D. degree in Electrical and Computer Engineering from Memorial University, St. John’s, NL, Canada, in 2004. He is currently a full professor at the Department of Electrical and Computer Engineering, Faculty of Engineering and Applied Science, Memorial University, St. John’s, NL, Canada. His research interests include mobile ad hoc and wireless sensor networks, wireless communications and mobile computing, switching and routing, and broadband communication networks. He was a recipient of the best paper award at the 2010 IEEE International Conference on Communications (ICC’۱۰), Cape Town, June 2010. He is an editorial board member of Wiley Wireless Communications and Mobile Computing, an associate editor of Wiley Security and Communication Networks, and an editorial board member of Journal of Networks, International Journal of E-Health and Medical Communications and KSII Transactions on Internet and Information Systems. He has served a technical program committee (TPC) co-chair for the ACM MSWIM’۱۴, MSWIM’۱۳, IEEE WiMob’۱۱ and QBSC’۱۰. He has served as a co-chair for various technical symposia of many international conferences, including the IEEE GLOBECOM, ICC, WCNC, and IWCMC. He has also served as the TPC member for many international conferences, including the IEEE ICC, GLOBECOM, and WCNC. Dr. Li is a registered Professional Engineer (P.Eng.) in Canada and is a Senior Member of the IEEE and a member of the IEEE Communication Society, Computer Society, Vehicular Technology Society, and Ocean Engineering Society.

Business Intelligence applied in Small Size for Profit Companies

Author(s): CarmineD’Arconte

Year: 2018

Published: Procedia Computer Science, Volume 131, 2018, Pages 45-57

Abstract:

With the expression, “Business Intelligence” we refer to intelligent technologies that may help companies improve their performances and have better possibilities to survive and develop. Anyway, in this regard, we sometimes have a double negative impression, namely that on one side there is a certain lack of practical indications on how to apply this in everyday companies’ life and, secondly, that it is often not taken into due consideration the extremely reduced size of companies, the limited entrepreneurial competences and the scarce availability of technologies. In this paper, apart from highlighting the role of Business Intelligence in practice, we try to find a way to apply it also in small size companies focusing on two critical aspects, namely customer’s profitability and their satisfaction level that, especially if considered in their reciprocal interaction, may have a great impact on companies’ outcomes though using simple technologies.

Building a contextual dimension for OLAP using textual data from social networks

Author(s): KarelGutiérrez-Batista-Jsús R.Campaña-Maria-AmparoVila- Maria J.Martin-Bautista

Year: 2018

Published: Expert Systems with Applications, Volume 93, 1 March 2018, Pages 118-133

Abstract:

Due to the continuous growth of social networks the textual information available has increased exponentially. Data warehouses (DW) and online analytical processing (OLAP) are some of the established technologies to process and analyze structured data. However, one of their main limitations is the lack of automatic processing and analysis of unstructured data (specifically, textual data), and its integration with structured data. This paper proposes the creation, integration and implementation of a new dimension called Contextual Dimension from texts obtained from social networks into a multidimensional model. Such a dimension is automatically created after applying hierarchical clustering algorithms and is fully independent from the language of the texts. This dimension allows the inclusion of multidimensional analysis of texts using contexts and topics integrated with conventional dimensions into business decisions. The experiments were carried out by means of a freeware OLAP system (Wonder 3.0) using real data from social networks.

A management dashboard to boost operating theatre utilisation, productivity and profitability

Author(s): AltekinErkollar- irgitOberer

Year: 2015

Published: International Journal of Surgery, Volume 20, August 2015, Pages 26-27

Abstract:

Britain’s National Health Service faces the difficult task of maintaining high quality healthcare with increased public demand and reduced funding.

High-volume surgery poses an excellent arena for the application of a management dashboard – a virtual tool to improve theatre utilisation and productivity . We designed a RAG (red, amber, green) rated dashboard for ophthalmic surgery using Microsoft Excel to retrospectively analyse service line reporting data over a three month period using the following metrics: “list start time”, “list finish time” and “surgical productivity ratio (SPR)”. SPR is a ratio of time spent operating against time available to operate.

We RAG rated the metrics against predetermined parameters for “ideal”, “reasonable” and “poor”, then incorporated cost data using service line reporting from the hospital accounting department. “Ideal” described list start/finish times less than 10 min of scheduled time and SPR of above 0.80; “reasonable” described list start/finish times between 10 and 20 min of scheduled time and SPR between 0.70 and 0.80; “poor” described list start/finish times over 20 min of scheduled time and SPR under 0.70. The morning list is scheduled as 08:30–۱۲:۳۰ and the afternoon list 13:30–۱۷:۳۰.

In this three month period, 5.8% of list start times were ideal, 23.1% reasonable and 71.2% poor. 17.3% of list finish times were ideal, 10.6% reasonable and 72.1% poor. 35.6% of SPRs were ideal, 28.9% reasonable and 35.6% poor.

Total theatre costs incurred were £۱,۹۳۷,۷۴۹. Out of 836 session hours available, 358 h and 17 min were not spent operating (SPR = 0.57). There were 120 periods of 47 min or longer. These periods could be used for cataract operations within scheduled session times – a potential £۹۱,۸۸۰ of additional revenue.

Regression analysis demonstrated a significant linear relationship between number of minutes the morning list overran and number of minutes the afternoon list started late, where the morning list overran by 30 min or more (p = 0.001; r2 = 0.656). This knock-on effect and associated overtime charges can be avoided by starting and finishing the morning list on time.

Furthermore, the dashboard displayed the individual surgeons’ operations and identified patterns of recurring late theatre starts at certain points in the working week. In one instance, this was due to a consistently overbooked morning outpatient clinic. Another was due to the surgeon travelling from a different hospital for an afternoon operating list. Individual surgeons can compare operating time per procedure and share best practice wherever significant discrepancies arise. The dashboard also allows management to identify and quantify the financial implications of consultants supervising trainees, who were typically slower in all operations, and strategically allocate fewer numbers of patients onto these lists.

In summary, our dashboard demonstrated significant potential to improve theatre utilisation, productivity and profitability and encouraged action within the department. We recommend the use of RAG rated operating theatre dashboards by clinicians and managers nationally to help improve these measures.

پردازش تحلیلی برخط روی پایگاه داده دانشگاهی

نویسنده (گان): شیرین میرعابدینی و سیده فاطمه نورانی

سال انتشار: ۱۳۹۵

ارائه شده در: چهارمین کنفرانس بین المللی علوم و مهندسی

چکیده:

مروزه بسترهای آموزشی و یادگیری به طور گستردهای در مراکز دانشگاهی سراسر کشور مورد استفاده قرار می گیرد. با وجود مزایای بسیاری که این سیستم ها برای مراکز آموزشی فراهم میآورند، هنوز مشکلات زیادی در زمینه استفاده از اینگونه سیستم ها وجود دارد و سؤالات بسیاری بدون جواب باقی مانده است امکان بررسی عوامل تأثیرگذار در موفقیت دانشجویان و موفقیت در جذب دانشجو و تصمیم گیری در راستای تخصیص بهینه منابع جهت افزایش بهره وری نیز از جمله مسائلی است که موجب بروز چالش در میان مدیران و سایر دست اندرکاران حوزه های آموزش و یادگیری شده است. راهبردهای پردازش تحلیلی برخط از جمله ابزارهایی است که می تواند در راستای غلبه بر این مشکلات مورد استفاده قرار گیرد. در این مقاله ضمن تحقیق بر هوش کسب و کار، سعی بر بررسی پردازش تحلیلی برخط داده های موجود درمحیطهای آموزشی خواهیم داشت.

Multidimensional Dashboards for Evaluating Strategic brand Management Processes for Multi-brand Companies

Author(s): AltekinErkollar- irgitOberer

Year: 2016

Published: Procedia – Social and Behavioral Sciences, Volume 235, 24 November 2016, Pages 505-513

Abstract:

Focusing on digital marketing brand managers have to focus on current and future customer demands and need to find new ways of penetrating into the lives of consumers, offering the ‘right’ advertisement at the ‘right’ time. In order to promote the e-commerce or the brand image of the company, the marketing strategy has moved to digital marketing. Branding can be defined as an outgoing process, where the outputs are a brand and a brand identity for differentiating products, services, divisions, companies, industries, or target groups. Branding is an output-generating process, with a brand and brand identity for differentiating products, services, and corporations, as outputs. Brands are critical marketing and communication assets, and it is important to invest time in researching, developing, and implementing a brand. In this study a four level brand management dashboard was developed focusing on the dimensions stakeholder, market, media sources and internal dimension. The dashboard was then implemented in a company operating the telecommunications market, having one master brand and several sub brands. Objectives of the project were to deliver better brand briefs, establish a clear internal communication hierarchy, get a greater visibility of projects in the pipeline. Indicators to evaluate brand effectiveness and the whole strategic brand management process after the brand performance dashboard has been implemented are the accuracy of branded materials, on time delivery, preservation of brand values and equity. The evaluation of the strategic brand management process with the dashboard applied and the new set of indicators implemented gives after one year in use the following results: values for already implemented indicators, such as brand development index, close rate and brand equity improved in the 1 year study period. Newly implemented indicators, such as brand penetration index, master brand influence rate, stakeholder value, sub brand sales rate, brand cross index, customer index, employee index and market penetration index, have all values within the pre-defined ranges. The developed brand performance dashboard offers an opportunity to analyze brands, brand dimensions and the brand environment in a structured way.

Business intelligence in online customer textual reviews: Understanding consumer perceptions and influential factors

Author(s): XnXu_ XuequnWang_YibaiLi_ MohammadHaghighi

Year: 2016

Published: International Journal of Information Management, Volume 37, Issue 6, December 2017, Pages 673-683

Abstract:

This study attempts to determine the level of competitive intelligence (CI) efforts in the hotel industry in Minot, North Dakota. To this end, the researchers conducted a serious of in-depth semi-structured interviews with hotel managers representing twenty-seven hotels. The results indicate that the participating hotel managers demonstrated a low level of knowledge and awareness of CI. It appears that they engage in CI activities, primarily for tactical, rather than strategic purposes. Many lacked an adequate formal educational background in academic business that would have prepared them for the more strategic-level CI activities. Almost all of them had training in the tactics needed to gather intelligence of their competitors but few demonstrated a clear connection to strategic planning and competitive positioning. This study offers specific theoretical and practical implications.

Competitive intelligence practices in hotels

Author(s): MehmetAli Köseoglu- GaryRoss- FevziOkumus

Year: 2016

Published: International Journal of Hospitality Management,Volume 53, February 2016, Pages 161-172

Abstract:

This study attempts to determine the level of competitive intelligence (CI) efforts in the hotel industry in Minot, North Dakota. To this end, the researchers conducted a serious of in-depth semi-structured interviews with hotel managers representing twenty-seven hotels. The results indicate that the participating hotel managers demonstrated a low level of knowledge and awareness of CI. It appears that they engage in CI activities, primarily for tactical, rather than strategic purposes. Many lacked an adequate formal educational background in academic business that would have prepared them for the more strategic-level CI activities. Almost all of them had training in the tactics needed to gather intelligence of their competitors but few demonstrated a clear connection to strategic planning and competitive positioning. This study offers specific theoretical and practical implications.

Secure Information Model for Data Marketplaces Enabling Global Distributed Manufacturing

Author(s): GhaidaaShaabany-MarcoGrimm-ReinerAnderl

Year: 2016

Published: IFAC-PapersOnLine, Volume 48, Issue 3, 2015, Pages 277-282

Abstract:

The German term “Industrie 4.0” is distinguished by expanding networking and intelligence of machines, products and services In this context new business models are developed, many of them is based mainly on digital design and production data In this paper, a new concept for a technology data marketplace (TDMP) is presented, which allows trading manufacturing process data Digital data distribution involves various risks by hackers’ attacks, theft or manipulation of data So, the use of effective security methods and mechanisms is the key to the success of this TDMP At the same time authority, authenticity, privacy and availability of these machine data are highly required for secure use and confidential identities The scientific challenge is to develop a secure concept of technology data exchange between market members Furthermore providing machines with required data automatically from the marketplace is desired This distribution of data introduces a basic concept to exchange and protect production information In addition it discusses developing new business models based on existing resources, which create a new value stream in the industry.

نقش هوش تجاری در مدیریت زنجیره تامین نهاده ها

نویسنده (گان): محمدرضا بابایی _ مهدی جباری _ نیلوفر اسدزاده

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس بین المللی اقتصاد مدیریت و علوم کشاورزی

چکیده:

در این مقاله بر اساس مرور ادبیات موضوع و انجام مطالعات کتابخانه ای نسبت به نقش هوش تجاری در مدیریت زنجیره تامین و توزیع نهاده های کشاورزی بر اساس معیارها و مولفه های یکپارچگی داده ها، کیفیت محتوای اطلاعات، کیفیت دسترسی به اطلاعات، فرهنگ تصمیم گیری تحلیلی واستفاده از اطلاعات در فرآیند تصمیم گیری به منظور سنجش تاثیر بر مدیریت زنجیره تامین اقدام نموده ایم.با استفاده از ابزار پرسشنامه کتبی نسبت به جمع آوری نظرات مدیران و مسئولین ستادی و استانی شرکت خدمات حمایتی کشاورزی در رابطه با هوش تجاری و مدیریت زنجیره تامین نهاده های کشاورزی شامل معیار های تامین کننده، مشتری، فرآیندهای کسب و کار پایدار داخلی و عملکرد رشد و یادگیری اقدام شد. نمونه تصادفی ساده بین مدیران و مسئولین شرکت خدمات حمایتی کشاورزی انتخاب گردید و نتایج حاصل از آزمون رگرسیون ناپارامتریک، ضریب همبستگی رتبه ای اسپرمن نشان می دهد اکثر مولفه های هوش تجاری شامل یکپارچگی داده ها، کیفیت محتوای اطلاعات، فرهنگ تصمیم گیریتحلیلی و استفاده از اطلاعات در فرآیند تصمیم گیری با شاخص های تامین کننده، مشتری، فرآیند کسب و کار پایدار داخلی و عملکرد رشد و یادگیری مدیریت زنجیره تامین ارتباط معنی داری داشته لیکن برخی از مولفه ها مانند یکپارچگی داده ها و استفاده از اطلاعات در فرآیند تصمیم گیری ارتباط معنی دارتری در سطح ۹۴ درصد دارند. لذا در فرآیند مدیریت زنجیزه تامین مبتنی بر بهره بردار که مهترین شاخص در تامین و توزیع نهاده های کشاورزی بشمار می رود، یکپارچگی داده ها و استفاده از اطلاعات در فرآیند تصیم گیری با اولویت بالاتری نسبت به دیگر مولفه ها بترتیب پیشنهاد می گردد.

مقاله داده کاوی و کشف قوانین وابستگی

نویسنده (گان):

سال انتشار: ۱۳۹۷

ارائه شده در: http://collegeprozheh.ir

چکیده:

با افزایش سیستمهای کامپیوتر و گسترش تکنولوژی اطلاعات , بحث اصلی در علم کامپیوتر از چگونگی جمع آوری اطلاعات به نحوه استفاده از اطلاعات منتقل شده است . سیستمهای داده کاوی ,این امکان را به کاربر می دهند که بتواند انبوه داده های جمع آوری شده را تفسیر کنند و دانش نهفته در آن را استخراج نمایند . داده کاوی به هر نوع کشف دانش و یا الگوی پنهان در پایگاه داده ها اطلاق می شود . امروزه داده کاوی به عنوان یکی از مهمترین مسائل هوش مصنوعی و پایگاه داده ، محققان بسیاری را به خود جذب کرده است . در این تحقیق ابتدا نگاه کلی بر داده کاوی ، استراتژیهای داده کاوی و… داریم ، سپس مسأله کشف قوانین وابستگی در پایگاه داده را به تفضیل بررسی کردیم و نگاهی به الگوریتمهای موجود برای آن داشتیم . سپس مسأله کشف قوانین وابستگی در پایگاه داده های پویا را مورد بحث قرار دادیم و الگوریتم های ارائه شده مربوطه را مطرح کردیم .

Modelling Knowledge about Data Analysis Processes in Manufacturing

Author(s): ThomasNeuböck- MichaelSchrefl

Year: 2015

Published: IFAC-PapersOnLine, Volume 48, Issue 3, 2015, Pages 277-282

Abstract:

In industry 4.0, analytics and business intelligence (BI) are of particular importance to increase productivity, quality, and flexibility. It is necessary to make right and quick decisions for effective and efficient problem solving and process improvements. Modern technologies allow to collect a large amount of data that can be analysed. Heterogeneity and complexity of industrial environments require considerable expert knowledge to perform meaningful and useful data analysis. BI analysis graphs represent expert knowledge about analysis processes. This knowledge can be modelled pro-actively at schema level and used at instance level. Analysis situations can be considered as multi-dimensional queries and represent nodes of a BI analysis graph. An arc between two nodes is a relationship between two analysis situations describing the difference of both. It represents a navigation step, e.g., an online analytical processing (OLAP) operation, of the analysis process. We demonstrate BI analysis graphs by a use case originated from manufacturing of brushes. Complex analysis paths, e.g., to analyse substitute material in the case of delayed delivery, are modelled by BI analysis graphs and can be used multiple times (also by non-experts). Reinvention of analysis knowledge is prevented – right and quick decisions for finding effective and efficient problem solutions can be made.

On neural networks and learning systems for business computing

Author(s): LiYawen_ JiangWeifeng_ YangLiu_WuTian

Year: 2015

Published: Neurocomputing,Volume 275, 31 January 2018, Pages 1150-1159

Abstract:

Artificial intelligence, including neural networks, deep learning and machine learning, has made numerous progress and offered new opportunity for academic research and applications in many fields, especially for business activities and firm development. This paper summarizes different applications of artificial intelligence technologies in several domains of business administration. Finance, retail industry, manufacturing industry, and enterprise management are all included. In spite of all the existing challenges, we conclude that the rapid development of artificial intelligence will show its great impact on more fields.

A novel approach for intelligent distribution of data warehouses

Author(s): Abhay KumarAgarwal- NeelendraBadal

Year: 2016

Published: Egyptian Informatics Journal, Volume 17, Issue 2, July 2016, Pages 147-159

Abstract:

With the continuous growth in the amount of data, data storage systems have come a long way from flat files ystems to RDBMS, Data Warehousing (DW) and Distributed Data Warehousing systems. This paper proposes a new distributed data warehouse model. The model is built on a novel approach, for the intelligent distribution of data warehouse. Overall the model is named as Intelligent and Distributed Data Warehouse (IDDW). The proposed model has N-levels and is based on top-down hierarchical design approach of building distributed data warehouse. The building process of IDDW starts with the identification of various locations where DW may be built. Initially, a single location is considered at top-most level of IDDW where DW is built. Thereafter, DW at any other location of any level may be built. A method, to transfer concerned data from any upper level DW to concerned lower level DW, is also presented in the paper. The paper also presents IDDW modeling, its architecture based on modeling, the internal organization of IDDW via which all the operations within IDDW are performed.

Big data uncertainties

Author(s): Pierre- André G.Maugis

Year: 2018

Published:Journal of Forensic and Legal Medicine, Volume 57, July 2018, Pages 7-11

Abstract:

Big data—the idea that an always-larger volume of information is being constantly recorded—suggests that new problems can now be subjected to scientific scrutiny. However, can classical statistical mthods be used directly on big data? We analyze the problem by looking at two known pitfalls of big datasets. First, that they are biased, in the sense that they do not offer a complete view of the populations under consideration. Second, that they present a weak but pervasive level of dependence between all their components. In both cases we observe that the uncertainty of the conclusion obtained by statistical methods is increased when used on big data, either because of a systematic error (bias), or because of a larger degree of randomness (increased variance). We argue that the key challenge raised by big data is not only how to use big data to tackle new problems, but to develop tools and methods able to rigorously articulate the new risks therein.

پردازش داده های کلان (Big data)

نویسنده (گان): منصور کلکلی – امیر رجایی

سال انتشار: ۱۳۹۶

ارائه شده در: کنفرانس سالانه پارادایم های نوین مدیریت در حوزه هوشمندی

چکیده:

کلان داده ها به هر مجموعه ی بسیار وسیع و پیچیده ای اطلاق می شود که پردازش آن با استفاده از برنامه های پردازش دادهای سنتی مشکل است . کار باکلان داده ها با استفاده از سامانه های مدیریت پایگاه داده های منطقی و آمار کتابخانه ای سخت است و در مقابل نیازمند نرم افزارهای موازی بسیاری است که روی ده ها، صدها یا حتی هزاران سرور اجرا می شوند . کلان داده ها معمولا شامل مجموعه داده هایی هستند که دارای اندازهای می باشند که معمولا فراتر از توانایی معمول ابزار نرم افزاری برای گرفتن، انتخاب، مدیریت و پردازش داده ها در یک زمان معین می باشند . اندازه ای داده های عظیم یک موضوع متغیر است که از چند ده ترابایت تا چندین پتابایت داده متغیر است . کلان داده ها مجموعه ای از تکنیک ها و فن آوری هایی است که نیازمند فرم های جدید اختلاط برای آشکار کردن مقادیر پنهان وسیع از روی مجموعه داده هایی است که متنوع، پیچیده و بزرگ مقیاس می باشند . محیط داده های وسیع برای کسب، سازماندهی و تجزیه و تحلیل انواع مختلف داده ها مورد استفاده قرار می گیرد داده های بزرگ با خود، مسیولی های بزرگی را نیز همراه دارند ؛ از آنجایی که داده های بزرگ تنها یک صنع بر مبنای نرم افزار نبوده و دارای استفاده های متعددی در زمینه های عمرومی مانند آموزش های مرتبط با سلام و یا آموزش های مرتبط با قسم های مدیریتی نیزمی باشد ، به همین دلیل وجود آن برای افزایش بهره وری در تمام دنیا بسیار پر اهمی می باشد. داده های بزرگ برحجم بزرگی از داده هایی اشاره خواهد داشت که آن را اگزابایت می نامیم این میزان داده ها همچنین به عنوان داده هایی که خارج از توان فناوری حال حاضر، جه نگهداری ، مدیری و پردازش به صورت بهینه می باشند نیز شناخته می شوند . الگوی را ساختار پردازش دسته های داده های بزرگ از معماری متمرکز بر معماری توزیعی تغییر کرده است در این مقاله ما در کنار مشخص کردن نگرانی های خاص در دنیای داده های بزرگ اقدام به ارایه ، بررسی دقیق و کاملی از تحقیقات ، و تجزیه و تحلیل های صورت گرفته برروی داده های بزرگ خواهیم کرد. یک مشاهده در مورد چارچوب نگاشت کاهش وجود دارد که این چارچوب میزان وسیع داده های متوسط را تولید می کند در این مقاله مروری بر مفهوم کلان داده و مهمترین مسایل پیرامون، توانمندی های رایانش ابری، ترسیم ابعاد کلان داده، مقایسه روش پردازش کلان داده با استفاده از سیستم های پردازش داده موازی و MapReduce، کاربردهای کلان داده و چالش های انها خواهیم پرداخت.به بررسی راهکارهای موجود برای مدیریت آن خواهیم داشت.

طبقه بندی مشتریان اینترنت بانک با کمک الگوریتم های داده کاوی

نویسنده (گان): رادفر رضا- نظافتی نوید- یوسفی اصلی سعید

سال انتشار: ۱۳۹۳

ارائه شده در: مدیریت فناوری اطلاعات- بهار ۱۳۹۳ , دوره ۶ , شماره ۱ ; از صفحه ۷۱ تا صفحه ۹۰ .

چکیده:

طبقه بندی مشتریان با استفاده از الگورتم های داده کاوی، بانک ها را قادر به حفظ وفاداری مشتریان قدیم و جذب مشتریان جدید خواهد کرد. یکی از روش های داده کاوی، درخت تصمیم گیری است. چنانچه درخت تصمیم مناسبی ساخته شود، می توان مشتریان را به طور بهینه طبقه بندی کرد. در این نوشتار یک مدل مناسب برای طبقه بندی مشتریان بر مبنای بهره گیری از خدمات اینترنت بانک ارائه شده است. این مدل بر اساس استاندارد CRISP-DM انجام گرفته و داده های مورد نیاز از پایگاه داده مشتریان اینترنت بانک سینا استخراج شده است.

در میان سایر درختان تصمیم گیری ، درخت تصمیم نهایی مبتنی بر معیارهای بهینگی و دقت بوده و بر اساس دسته بندی مشتریان در سه سطح بالا، متوسط و پائین، پیش بینی مشتریان جدیدی که متقاضی استفاده از اینترنت بانک هستند، شکل می گیرد. پژوهش پیش رو از نظر هدف، کاربردی و از نظر گرداوری داده ها، پژوهش اسنادی به شمار می رود. قوانین استخراج شده مربوط به مشتریان ، مدیران بانک ها را قادر می سازد تا بر اساس الگوهای کشف شده سیاست گذاری کنند و درک بهتری از انتظارات کنونی و آتی مشتریان داشته باشند.

Context-aware data quality assessment for big data

Author(s):Future Generation Computer Systems, Volume 89, December 2018, Pages 548-562

Year: 2018

Published: DaniloArdagna-CinziaCappiello- WalterSama- MonicaVitali

Abstract:

Big data changed the way in which we collect and analyze data. In particular, the amount of available information is constantly growing and organizations rely more and more on data analysis in order to achieve their competitive advantage. However, such amount of data can create a real value only if combined with quality: good decisions and actions are the results of correct, reliable and complete data. In such a scenario, methods and techniques for the Data Quality assessment can support the identification of suitable data to process. If for traditional database numerous assessment methods are proposed, in the Big Data scenario new algorithms have to be designed in order to deal with novel requirements related to variety, volume and velocity issues. In particular, in this paper we highlight that dealing with heterogeneous sources requires an adaptive approach able to trigger the suitable quality assessment methods on the basis of the data type and context in which data have to be used. Furthermore, we show that in some situations it is not possible to evaluate the quality of the entire dataset due to performance and time constraints. For this reason, we suggest to focus the Data Quality assessment only on a portion of the dataset and to take into account the consequent loss of accuracy by introducing a confidence factor as a measure of the reliability of the quality assessment procedure. We propose a methodology to build a Data Quality adapter module, which selects the best configuration for the Data Quality assessment based on the user main requirements: time minimization, confidence maximization, and budget minimization. Experiments are performed by considering real data gathered from a smart city case study.

Data Cleaning

Author(s): DariushKhezrimotlagh- JoeZhu- We D.Cook- MehdiToloo

Year: 2019

Published: European Journal of Operational Research, Available online 31 October 2018

Abstract:

Data quality could be affected from user input errors, inconsistencies in input, missing values, misspellings, improper generation of data. These problems prevent the collection of accurate analysis results, conducting the researchers to some misleading conclusions. Data cleaning improves the quality of the data for analysis, by facing those problems. In this article, the main methods for data cleaning in bioinformatics are presented and discussed.

Data envelopment analysis and big data

Author(s): DariushKhezrimotlagh- JoeZhu- We D.Cook- MehdiToloo

Year: 2018

Published: European Journal of Operational Research, Available online 31 October 2018

Abstract:

In the traditional data envelopment analysis (DEA) approach for a set of n Decision Making Units (DMUs), a standard DEA model is solved n times, one for each DMU. As the number of DMUs increases, the running-time to solve the standard model sharply rises. In this study, a new framework is proposed to significantly decrease the required DEA calculation time in comparison with the existing methodologies when a large set of DMUs (e.g., 20,000 DMUs or more) is present. The framework includes five steps: (i) selecting a subsample of DMUs using a proposed algorithm, (ii) finding the best-practice DMUs in the selected subsample, (iii) finding the exterior DMUs to the hull of the selected subsample, (iv) identifying the set of all efficient DMUs, and (v) measuring the performance scores of DMUs as those arising from the traditional DEA approach. The variable returns to scale technology is assumed and several simulation experiments are designed to estimate the running-time for applying the proposed method for big data. The obtained results in this study point out that the running-time is decreased up to 99.9% in comparison with the existing techniques. In addition, we illustrate the essential computation time for applying the proposed method as a function of the number of DMUs (cardinality), number of inputs and outputs (dimension), and the proportion of efficient DMUs (density). The methods are also compared on a real data set consisting of 30,099 electric power plants in the United States from 1996 to 2016.

The Role of Spiritual Intelligence on Organizational Commitment in Employees of Universities in Tehran Province, Iran

Author(s): IvanLitvaj- DanaStancekova

Year: 2014

Published: Procedia – Social and Behavioral Sciences, Volume 140, 22 August 2014, Pages 499-505

Abstract:

Introduction: Spiritual intelligence is the mind’s capacity to handle substantial and spiritual aspects of life. According to previous studies, spiritual intelligence can be effective in the promotion of different variables. One such variable is organizational commitment. Organizational commitment may have potentially serious effects on an organization’s function and can be a major influence on its effectiveness. This study explores the relationship between spiritual intelligence and organizational commitment in staff of universities from Tehran Province, Iran. Methods: The study population included all staff of universities in Tehran Province during 2012-13. From this population we chose a random sample of 200 staff(111males and 89 females). Data collection was performed by the completion of two spiritual intelligence self-evaluation questionnaires (2008) and the Organizational Commitment Questionnaire by Allen and Meyer (1997). Conclusion: According to our analysis the results showed a difference in the amount of spiritual intelligence and organizational commitment between males and females, both of which were higher in males. A definite correlation existed between spiritual intelligence and organizational commitment among staff. Higher spiritual intelligence corresponded to higher organizational commitment, which was proven for both males and females. Additionally, a correlation existed between spiritual intelligence and the continuous subscale. This correlation was also evident in the spiritual intelligence of males and in the affective and normative subscales.

روش های داده‌ کاوی برای کشف تقلب در حسابرسی صورت های مالی

نویسنده (گان): فریدون رهنمای رودپشتی

سال انتشار: ۱۳۹۱

ارائه شده در: فصلنامه علمی و پژوهشی دانش حسابداری و حسابرسی مدیریت سال اول / شماره سوم/ پائیز ۱۳۹۱

چکیده:

بر عصر حاضر، «عصر اطلاعات» نام نهاده شده و آنچه که منجر به قدرت و موفقیت می شود اطلاعات است. اکنون با کمک فناوری های پیچیده ای مانند کامپیوتر، ماهواره و وسایلی برای ذخیره سازی اطلاعات، می توان شروع به جمع آوری و ذخیره سازی انواع داده ها کرد و از توانایی کامپیوترها برای کمک به مرتب سازی انبوه اطلاعات بهره برد. متاسفانه، این مجموعه عظیم داده های ذخیره شده بر روی کامپیوترهای متفاوت به سرعت دست و پاگیر شدند. این هرج و مرج منجر به ایجاد پایگاه داده های ساختار یافته و سیستم های مدیریت پایگاه داده شده است. سیستمهای مدیریت پایگاه داده کارآمد، سرمایه بسیار ارزشمندی برای مدیریت حجم انبوهی از داده ها و به خصوص برای بازیابی اثربخش و کارآمد اطلاعات از مجموعه ای بزرگ در زمان مورد نیاز است. راهکارهای جدیدی برای کمک به تصمیم گیری های بهتر مدیریتی در مواجه با مجموعه عظیمی از داده ها ایجاد شده است.

Decision - Making, and Their Relation to The Knowledge Management, Use of Knowledge Management in Decision - Making

Author(s): IvanLitvaj- DanaStancekova

Year: 2015

Published: Procedia Economics and Finance,Volume 23, 2015, Pages 467-472

Abstract:

Our study focuses on two basic areas, firstly on knowledge management, describing its significance and benefits to enterprises, but our main focus is the decision-making, decision making procedures and their relation to the knowledge management. In our study we deal with use of knowledge managment in decision-making.As far as the products are changing, so do the technologies, markets and business conditions as well – same stands for enterprises in global market economy. Consequently, there is the need to change business strategies and management systems used by enterprises, because they are subject to changes as well. These changes have to help enterprises to adpat to global economy changes, so the frequency of these changes is growing. But what does it mean to succesfully adapt? Answer lies in responding to and satisfying customer needs, effectively answer to their requirements and innovate, change the business and its management systems as well. The knowledge management belongs to up-to-date management systems and more and more enterprises implement it. This is the reason why we focus our study to its use in decision making procedure as one of the key managerial process.

Performance evaluation of cloud-based log file analysis with Apache Hadoop and Apache Spark

Author(s): IliasMavridis- HelenKaratza

Year: 2017

Published: Journal of Systems and Software, Volume 125, March 2017, Pages 133-151

Abstract:

Log files are generated in many different formats by a plethora of devices and software. The proper analysis of these files can lead to useful information about various aspects of each system. Cloud computing appears to be suitable for this type of analysis, as it is capable to manage the high production rate, the large size and the diversity of log files. In this paper we investigated log file analysis with the cloud computational frameworks Apache™Hadoop® and Apache Spark™. We developed realistic log file analysis applications in both frameworks and we performed SQL-type queries in real Apache Web Server log files. Various experiments were performed with different parameters in order to study and compare the performance of the two frameworks.

Apache Spark a Big Data Analytics Platform for Smart Grid

Author(s): Shyam R_ BharathiGanesh H.B._ SachinKumar S._ PrabaharanPoornachandran_ Soman K.P.

Year: 2015

Published: Procedia Technology, Volume 21, 2015, Pages 171-178

Abstract:

Smart grid is a complete automation system, where large pool of sensors is embedded in the existing power grids system for controlling and monitoring it by utilizing modern information technologies. The data collected from these sensors are huge and have all the characteristics to be called as Big Data. The Smart-grid can be made more intelligent by processing and deriving new information from these data in real time. This paper presents Apache spark as a unified cluster computing platform which is suitable for storing and performing Big Data analytics on smart grid data for applications like automatic demand response and real time pricing.

Demystifying Big Data Analytics for Business Intelligence Through the Lens of Marketing Mix

Author(s):ShaokunFan- Raymond Y.K.Lau_ J. LeonZhao

Year: 2015

Published: Big Data Research, Volume 2, Issue 1, March 2015, Pages 28-32

Abstract:

Big data analytics have been embraced as a disruptive technology that will reshape business intelligence, which is a domain that relies on data analytics to gain business insights for better decision-making. Rooted in the recent literature, we investigate the landscape of big data analytics through the lens of a marketing mix framework in this paper. We identify the data sources, methods, and applications related to five important marketing perspectives, namely people, product, place, price, and promotion, that lay the foundation for marketing intelligence. We then discuss several challenging research issues and future directions of research in big data analytics and marketing related business intelligence in general.

تحلیل کلان داده با Hadoop

نویسنده (گان): هدی محمدی

سال انتشار: ۱۳۹۷

ارائه شده در: داده کاوی و هوش مصنوعی, مجله شماره ۲۹۵ – فروردین ۱۳۹۷

چکیده:

کلان داده به علت دارا بودن حجم گسترده و بسیار بالایی از داده ها، نیازمند ابزارهایی است تا بتوان پردازشی کارآمد و موثر بر روی آن‌ها داشت. در واقع از مباحثی است که در روند توسعه تکنولوژی بسیار موثر می‌باشد زیرا همانطور که سازمان‌ها بزرگ می‌شوند، اطلاعات مرتبط با آن‌ها نیز به سرعت رشد یافته و افزایش می‌یابند و همین موضوع سبب ایجاد پیچیدگی‌های مرتبط با داده‌ها می‌شود بنابراین این موضوع اهمیت بیشتری می‌یابد.
Hadoop، یک فریم‌ورک نرم‌افزاری منبع‌باز و یک پلت‌فرم برای ذخیره‌سازی، آنالیز و پردازش داده‌ها می‌باشد. همچنین یک ذخیره سازی انبوه برای هر نوع داده محسوب می‌شود که دارای قدرت پردازشی بسیار بالا و توانایی مدیریت همزمان وظایف به صورت مجازی و بدون محدودیت است. در اینجا به صورت ساده بیان می‌کنیم که Hadoop، چگونه می‌تواند به تجزیه و تحلیل کلان داده‌ها کمک کند.

An information delivery model for banking business

Author(s):A.Martin_ T.Miranda Lakshmi_ V.Prasanna Venkatesan

Year: 2014

Published: Visual Informatics, Available online 5 December 2018

Abstract:

Banking is an enterprise consists of different levels of users with the requirement of different levels of information. We propose an information delivery model for banking business which takes information from business analysis and finds the best user for this information with respect to criteria and delivers the multi criteria reporting. There are many multi criteria decision making techniques [MCDM] available to find the best alternative in MCDM problem. We applied fuzzy MCDM technique which resolves inconsistency and uncertainty issues involved in decision making of information delivery for bank users. This model classifies most preferred user to least preferred user for the given information using fuzzy score. This information delivery model and its layers can be applied to other domains to build information delivery model.

Parallel Design of a Product and Internet of Things (IoT) Architecture to Minimize the Cost of Utilizing Big Data (BD) for Sustainable Value Creation

Author(s): RyanBradley- I.S.JawahirNikoMurrell- Juliehitney

Year: 2017

Published: Visual Informatics, Available online 5 December 2018

Abstract:

Information has become today’s addictive currency; hence, companies are investing billions in the creation of Internet of Things (IoT) frameworks that gamble on finding trends that reveal sustainability and/or efficiency improvements. This approach to “Big Data” can lead to blind, astronomical costs. Therefore, this paper presents a counter approach aimed at minimizing the cost of utilizing “Big Data” for sustainable value creation. The proposed approach leverages domain/expert knowledge of the system in combination with a machine learning algorithm in order to limit the needed infrastructure and cost. A case study of the approach implemented in a consumer electronics company is also included.

تحلیل داده های عظیم به عنوان سرویس: مدلی برای ارائه خدمات تحلیل داده های عظیم بر بستر رایانش ابری

نویسنده (گان): امیر صحافی _ مهدی نظری چراغلو

سال انتشار: ۱۳۹۳

ارائه شده در: همایش داده های عظیم

چکیده:

امروزه حجم انبوه داده ها در بسیاری از کاربردهای داده-محور ابزار و روشهای تحلیل و مدیریت داده ها را نیازمند تغییر نموده است. علاوه بر حجم بالا به عنوان یکی از سه بعد اصلی اینمسیله که با عنوان داده های عظیم شناخته می شود از تنوع زیادو سرعت بالا باید به عنوان دوبعد اساسی دیگر یاد نمود (۳Vs)بهره گیری از رایانش ابری با ایده استفاده از توان رایانشی فراهمشده توسط دیگران، به عنوان زیر ساختی بررای پروژه های دادههای عظیم به منظور تحلیل و استخراج دانش سودمند از آن باتوجه به نیازهایی چون توان پردازشی زیاد، حجم ذخیره سازیبسیار بالا و …. می تواند بهره مندی سازمان های کوچک و بزرگاز مزایای تحلیل داده های عظیم را به همراه داشته باشد.در این مقاله با مروری بر نقش رایانش ابری در بهره مندی ازمزایای تحلیل داده های عظیم، به ارایه و تبیین مدلی با در نظرگرفتن سه سطح ارایه سرویس در ابر بر اساس تعریف NIST (زیرساخت، پلت فرم و نرم افزار) برای ذخیره سازی، پردازش و تحلیلداده های عظیم در قالب یک خدمت، با عنوان تحلیل داده هایعظیم به عنوان سرویس پرداخته و جنبه های گوناگون آن بررسیشده است.

Visual analytics for event detection: Focusing on fraud

Author(s): RogerAlmeidaLeite_ TheresiaGschwandtner_ SilviaMiksch_ ErichGstrein_JohannesKuntner

Year: 2018

Published: Visual Informatics, Available online 5 December 2018

Abstract:

The detection of anomalous events in huge amounts of data is sought in many domains. For instance, in the context of financial data, the detection of suspicious events is a prerequisite to identify and prevent attempts to defraud. Hence, various financial fraud detection approaches have started to exploit Visual Analytics techniques. However, there is no study available giving a systematic outline of the different approaches in this field to understand common strategies but also differences. Thus, we present a survey of existing approaches of visual fraud detection in order to classify different tasks and solutions, to identify and to propose further research opportunities. In this work, fraud detection solutions are explored through five main domains: banks, the stock market, telecommunication companies, insurance companies, and internal frauds. The selected domains explored in this survey were chosen for sharing similar time-oriented and multivariate data characteristics. In this survey, we (1) analyze the current state of the art in this field; (2) define a categorization scheme covering different application domains, visualization methods, interaction techniques, and analytical methods which are used in the context of fraud detection; (3) describe and discuss each approach according to the proposed scheme; and (4) identify challenges and future research topics.

An ecosystem for anomaly detection and mitigation in software-defined networking

Author(s): Luiz FerandoCarvalho_TaufikAbrão_ Leonardo de SouzaMendes_Mario LemesProençaJr.

Year: 2018

Published: Expert Systems with Applications, Volume 104, 15 August 2018, Pages 121-133

Abstract:

Along with the rapid growth of computer networks comes the need for automating management functions to prevent errors in decision-making and reduce the cost of ordinary operations. Software-defined networking (SDN) is an emergent paradigm that aims to support next-generation networks through its flexible and powerful management mechanisms. Although SDN provides greater control over traffic flow, its security and availability remain a challenge. The major contribution of this paper is to present an SDN-based ecosystem that monitors network traffic and proactively detects anomalies which may impair proper network functioning. When an anomalous event is recognized, the proposal conducts a more active analysis to inspect irregularities at the network traffic flow level. Detecting such problems quickly is essential to take appropriate countermeasures. In this manner, the potential for centralized network monitoring based on SDN with OpenFlow is addressed in order to evaluate mitigation policies against threats. Experimental results demonstrate the proposed ecosystem succeeds in achieving higher detection rates compared to other approaches. In addition, the performance analysis shows that our approach can efficiently contribute to the network’s resilience.

Possibilities of Usage of Strategic Business Intelligence Systems Based on Databases in Agile Manufacturing

Author(s): AhmetUçaktürk_ TülayUçaktürk- HalilYavuz

Year: 2015

Published: Procedia – Social and Behavioral Sciences, Volume 207, 20 October 2015, Pages 234-241

Abstract:

Organizations must have the ability of responding quickly to predictable and unpredictable changes in the market. Organizations’ ability to adapt to the fast changing conditions depending on the differing requirements of the customers, depend to a great extend on their ability to become agile. Since change and ambiguity always exist and always will in future, the necessity of the organizations to understand these changes in environment conditions quickly and to be able to respond gains importance every passing day. This requirement provides the wide spreading of agile manufacturing philosophy in organizations. Organizations, due to agile manufacturing, will be able to have the chance of turning the ambiguities in the environment to possibilities. Today, accessing correct and more detailed information became possible however another problem has arisen. This problem is the management of large numerical data stacks and their becoming meaningful. The work of turning raw data into information or making them meaningful can be made with data warehouse and business intelligence tools (data mining, inquiry-reporting, OLAP). At the stage of quickly accessing and using data which will form the basis of agile manufacturing work, creation of data warehouses and using them by integrating into organization information system will be useful. In this work, information is tried to be provided with the literature scanning about the possibility of usage of data warehouse and data base architecture during agile manufacturing process and with business intelligence tools.

Agile values or plan-driven aspects: Which factor contributes more toward the success of data warehousing, business intelligence, and analytics project development?

Author(s): DineshBatra

Year: 2018

Published: Journal of Systems and Software, Volume 146, December 2018, Pages 249-262

Abstract:

Practically all organizations are developing data warehousing, business intelligence, and analytics (DW/BIA) projects for achieving customer value. A DW/BIA development project may be characterized by both agile and plan-driven aspects. The reported study investigated two research questions: (1) Which factor, agile values or plan-driven aspects, contributes more toward the success of DW/BIA? (2) What are the significant antecedents of agile values and plan-driven aspects? 124 respondents engaged in DW/BIA development filled a 30-item questionnaire on seven constructs. The partial least squares structural equation modeling (PLS-SEM) method was used to determine the strength of the relationships among the following factors: technological capability, shared understanding, top management commitment, and complexity as antecedents; agile values and plan-driven aspects as mediating; and project success as the dependent construct. Based on a prediction-oriented segmentation (PLS-POS) analysis, the findings indicate that there are two groups, agile-plan balanced and agile-heavy, which represent different approaches to DW/BIA development. Top management commitment and shared understanding emerge as strong antecedents to agile values and plan-driven aspects. Overall, the factor agile values contributes more toward the success of DW/BIA development.e

داده های بزرگ چگونه حسابداری مالی را تغییر خواهند داد؟

نویسنده (گان): علی ثقفی_ موسی جوانی قلندری

سال انتشار: ۱۳۹۵

ارائه شده در: پژوهش حسابداری دوره ششم پاییز ۱۳۹۵ شماره ۲ (پیاپی ۲۲)

چکیده:

داده های بزرگ متشکل از مجموعه داده های حجیمی است که به طور معمول با سیستم مدیریت پایگاه داده یا یرنامه های نرم افزاری سنتی قابل تحلیل نیست دلیل مقبولیت این اصطلاح، حجم فزاینده اطلاعاتی است که با گسترش فناوری های محاسباتی و ارتباط از راه دور به خصوص اینترنت و سنجش های محیطی قابل دسترسی می باشند. به میزانی که انواع گوناگون داده ها قابل دسترسی می شوند. داده های بزرگ پیامد مهمی برای حسابداری مالی خواهند داشت. اطلاعات متنی، ویدیویی، صوتی و تصویری که از طریق داده های بزرگ دسترسی به آنها امکان پذیر می شود، می تواند موجب بهبود حسابداری مالی و رویه های گزارشگری مالی شوند. داده های بزرگ در حسابداری مالی کیفیت و مربوط بودن اطلاعات حسابداری را بهبود خواهند بخشید و بنابراین موجب افزایش شفافیت می شوند که در نهایت بهبود تصمیم گیری ذینفعان را به دنبال دارد. درگزارشگری مالی نیز داده های بزرگ می توانند در تدوین و پالایش (تغییر) استانداردهای حسابداری کمک کننده باشند. علاوه بر این داده های بزرگ اطمینان دهی می کنند که با تکامل اقتصاد پویا، جهانی و واقعی، حرفه ی حسابداری همچنان به ارائه ی اطلاعات سودمند ادامه خواهد داد.

Business intelligence in risk management: Some recent progresses

Author(s): Desheng DashWu_ Shu-HengChen_ David L.Olson

Year: 2014

Published: Information Sciences, Volume 256, 20 January 2014, Pages 1-7

Abstract:

Risk management has become a vital topic both in academia and practice during the past several decades. Most business intelligence tools have been used to enhance risk management, and the risk management tools have benefited from business intelligence approaches. This introductory article provides a review of the state-of-the-art research in business intelligence in risk management, and of the work that has been accepted for publication in this issue.

When small data beats big data

Author(s): Julian J.Faraway- Nicole H.Augustin

Year: 2018

Published: Statistics & Probability Letters, Volume 136, May 2018, Pages 142-145

Abstract:

Small data is sometimes preferable to big data. A high quality small sample can produce superior inferences to a low quality large sample. Data has acquisition, computation and privacy costs which require costs to be balanced against benefits. Statistical inference works well on small data but not so well on large data. Sometimes aggregation into small datasets is better than large individual-level data. Small data is a better starting point for teaching of Statistics.

Generative adversarial network based telecom fraud detection at the receiving bank

Author(s): StehenMason, NicholasBohm

Year: 2018

Published: Neural Networks, Volume 102, June 2018, Pages 78-86

Abstract:

Recently telecom fraud has become a serious problem especially in developing countries such as China. At present, it can be very difficult to coordinate different agencies to prevent fraud completely. In this paper we study how to detect large transfers that are sent from victims deceived by fraudsters at the receiving bank. We propose a new generative adversarial network (GAN) based model to calculate for each large transfer a probability that it is fraudulent, such that the bank can take appropriate measures to prevent potential fraudsters to take the money if the probability exceeds a threshold. The inference model uses a deep denoising autoencoder to effectively learn the complex probabilistic relationship among the input features, and employs adversarial training that establishes a minimax game between a discriminator and a generator to accurately discriminate between positive samples and negative samples in the data distribution. We show that the model outperforms a set of well-known classification methods in experiments, and its applications in two commercial banks have reduced losses of about 10 million RMB in twelve weeks and significantly improved their business reputation.

چارچوب ارزیابی ماژول های سیستم بانکداری متمرکز مبتنی بر ویژگی های هوش تجاری

نویسنده (گان): روحانی سعید _ حمیدی هما

سال انتشار: ۱۳۹۵

ارائه شده در: مدیریت فناوری اطلاعات, تابستان ۱۳۹۵ , دوره ۸ , شماره ۲ , از صفحه ۳۱۵ تا صفحه ۳۳۴

چکیده:

در این پژوهش تلاش شده است که با بررسی و ارزیابی ویژگی های هوش تجاری، روند تکاملی بهینه سازی سیستم بانکداری متمرکز را با ایجاد تحلیل های با معنی، فضای پشتیبانی تصمیم گیری و بهینه سازی سرمایه گذاری سرعت بیشتری بخشید. از این رو با بررسی ادبیات موضوع، معیارهای هوش تجاری استخراج شدند و بر اساس نتایج تجزیه و تحلیل داده های پرسشنامه و اجرای آزمون های نسبت و فریدمن، میزان اهمیت و اولویت هر یک از معیارها مشخص شد. همچنین در این پژوهش از مدل ارزیابی تصمیم گیری چندمعیاره فازی (تاپسیس فازی) استفاده شده است. بر اساس تکنیک تاپسیس فازی، با استفاده از مقیاس های زبانی، وزن هر معیار و نتیجه میزان هوش قابل تخصیص، توصیف شده و با اعداد فازی مثلثی بیان می شود. بر اساس یافته های پژوهش، سیستم مدیریت ریسک با قرار گرفتن در رتبه نخست و داشتن بیشترین فاصله ایده آل منفی، ثابت می کند این سیستم از بالاترین سطح هوشمندی برخوردار است و فضای پشتیبانی تصمیم گیری را تقویت می کند.

مدلی برای پایش شاخص های علم و فناوری کشور با رویکرد هوش تجاری

نویسنده (گان): خطیبی وحید _ کرامتی عباس _ منتظر غلامعلی

سال انتشار: ۱۳۹۶

ارائه شده در: نشریه زمستان ۱۳۹۶ , دوره ۲۷ , شماره ۶۸ , از صفحه ۲۵ تا صفحه ۴۱ .

چکیده:

پیشرفت های علم و فناوری به عامل بسیار تاثیرگذاری بر رشد اقتصادی و قدرت رقابت پذیری کشورها تبدیل شده است و بر این اساس دولتها میکوشند با تدوین سیاستهای مناسب توسعه علم و فناوری در عرصه کشور را ترقی بخشند برای توسعه موفق نظام علم و فناوری کشور بایستی دیدی یکپارچه و جامعه بر ابعاد مختلف این نظام ایجاد گردد تا بر اساس آن بتوان با پایش تحولات این عرصه از سیاستگذاری صحیح و به هنگام برای نظام علم و فناوری کشور پشتیبانی نمود به دلیل پراکندگی دادههای مرتبط با شاخصهای علم و فناوری و نیز پویایی مستمر نظام علم و فناوری کشور ایجاد چنین دید جامع و یکپارچه ای مسلهای چالش برانگیز است این مقاله به تحقیق درباره چگونگی پشتیبانی هوش تجاری از یکپارچه سازی داده های شاخص های علم و فناوری از پایگاههای داده متعدد و پراکنده با هدف پایش تحولات نظام علم و فناوری کشور میپردازد برای این منظور معماری پایش شاخصها در پنج لایه انبار داده شاخصهای علم و فناوری کشور با طرحوار ستاره ای و فرایند پایش تحولات نظام علم و فناوری با رویکرد هوش تجاری طراحی گردیده اند با توسعه سیستم نمونه اولیه بر اساس مدل پیشنهادی به پایش شاخصهای نقش جامع علمی کشور با نگاه به افق چشم انداز پرداخته شده است برای تعیین جایگاه کشور در عرص بین المللی نیز عملکرد نظام علم و فناوری ایران در قیاس با کشورهای منتخب بررسی گردیده است در انتها با بهره گیری از نتایج پایش شاخصهای علم و فناوری کشور با مدل پیشنهادی به تحلیل وضعیت نظام علم و فناوری ایران پرداخته شده است.

Banking and fraud

Author(s): StehenMason, NicholasBohm

Year: 2017

Published: Computer Law & Security Review- Volume 33, Issue 2, April 2017, Pages 237-241

Abstract:

Developing a machine vision based autonomous utility vehicle for agricultural application is a challenging task due to changing physical landmarks. While most research thus far has developed algorithms that take advantage of ground structures such as trunks and canopies in the orchard, this research uses the combination of the canopy with the background sky. By focusing on the tree canopy and sky of an orchard row, an unmanned ground vehicle can extract features that can be used for autonomously navigating through the center of the tree rows. This was attempted by using a small-unmanned ground vehicle platform driven by four motors and guided by a machine vision system. The machine vision system is composed of a multispectral camera to capture real-time images and a personal computer to process the images and obtain the features used for autonomous navigation. Laboratory field tests showed that the small vehicle platform system was able to navigate autonomously with an RMS error of 2.35 cm. Field tests using a peach orchard showed that the small vehicle platform system could navigate the rows autonomously with an RMS error of 2.13 cm. The machine vision algorithm developed in this study has the potential to guide small utility vehicles in the orchard in the future.

Machine vision for orchard navigation

Author(s): JosiahRadcliffe- JulieCox- Duke M.Bulanon

Year: 2018

Published: Computers in Industry, Volume 98, June 2018, Pages 165-171

Abstract:

Developing a machine vision based autonomous utility vehicle for agricultural application is a challenging task due to changing physical landmarks. While most research thus far has developed algorithms that take advantage of ground structures such as trunks and canopies in the orchard, this research uses the combination of the canopy with the background sky. By focusing on the tree canopy and sky of an orchard row, an unmanned ground vehicle can extract features that can be used for autonomously navigating through the center of the tree rows. This was attempted by using a small-unmanned ground vehicle platform driven by four motors and guided by a machine vision system. The machine vision system is composed of a multispectral camera to capture real-time images and a personal computer to process the images and obtain the features used for autonomous navigation. Laboratory field tests showed that the small vehicle platform system was able to navigate autonomously with an RMS error of 2.35 cm. Field tests using a peach orchard showed that the small vehicle platform system could navigate the rows autonomously with an RMS error of 2.13 cm. The machine vision algorithm developed in this study has the potential to guide small utility vehicles in the orchard in the future.

Open Source Automated SMD Pick and Place Machine

Author(s): GokulnathA- RChandrakumarS- SudhakarT D

Year: 2018

Published: Procedia Computer Science, Volume 133, 2018, Pages 872-878

Abstract:

Surface Mount Device (SMD) is widely used in an automated Printed Circuit Board (PCB) assembling plant. Soldering SMD is a tedious and time-consuming process when it is done using bare hands. Industries require bulk production and hence it cannot be achieved by manual labour. For this fully automated SMD Pick and Place (P&P) machines are available in the market but the cheapest one starts at INR 15 Lakh (Yamaha yv-100x—Refurbished) and they are proprietary. Start-ups especially India based, find it difficult to afford such machine. In this paper, this issue is addressed and built an automated SMD P&P machine which is open source and far cheaper than the cheapest one in the market. However, the algorithm of the developed SMD P&P Machine and the one in the market remains the same but it functions differently and the steps are as follows; (i) Component are loaded onto the feeder tray (ii) Centroid file( machine file in ASCII format which comprise reference designator, X, Y, rotation, top or bottom side of the PCB board) is fed to the machine (iii) From the feeder tray component is picked by placement head using vacuum suction (iv) If the component is available in the placement head then correcting of component’s orientation and alignment using image processing is done else placement head is made to re-pick the component from feeder tray (v) Properly aligned and oriented component is placed on the PCB by releasing the vacuum. The proposed model is open source in both hardware (Raspberry Pi & Arduino) and software which is user friendly and easy to customize as per requirements.

Unicode-8 based linguistics data set of annotated Sindhi text

Author(s): Mazhar AliDootio, Asim ImdadWaganc

Year: 2018

Published: Data in Brief, Volume 19, August 2018, Pages 1504-1514

Abstract:

Sindhi Unicode-8 based linguistics data set is multi-class and multi-featured data set. It is developed to solve the natural languages processing (NLP) and linguistics problems of Sindhi language. The data set presents information on grammatical and morphological structure of Sindhi language text as well as sentiment polarity of Sindhi lexicons. Therefore, data set may be used for information retrieving, machine translation, lexicon analysis, language modeling analysis, grammatical and morphological analysis, Semantic and sentiment analysis.

Exploring the Metaphor of Information under the Context of Information Science Research: A Co-words Analysis

Author(s): AipingGuan, ChongGao, TongtongZhang, WenjieZhou

Year: 2018

Published: Procedia Computer Scienc, Vlume 131, 2018, Pages 739-745

Abstract:

Present study intends to explore the various definitions of information via co-words analysis procedure based on the Natural Language Process (NLP). 3593 academic papers from an academic database, LISTA, are covered. In short, present study proposes four types of information definitions based on co-words for full spectrum analysis on abstracts of scientific papers under the context of Information Science research as: information as records, information as individual experience, information as the update of data or as the foundation of knowledge and information as ability of individuals.

Using geospatial business intelligence to support regional infrastructure governance

Author(s): RohanWickramasuriya- JunMa- MatthewBerryman- PascalPerez

Year: 2013

Published: Knowledge-Based Systems, Volume 53, November 2013, Pages 80-89

Abstract:

In many developed countries including Australia, infrastructure services at local and state levels are being provided by an increasing number of disjointed public and private agencies. There is an urgent need for an integrated view on the provision and use of these services for better governance and productivity. Developing an integrated view is challenging due to the dispersion of relevant data sets and the underlying complexity of increasingly interconnected infrastructure networks. Using a case study in New South Wales (Australia), we demonstrate how tools and processes in Geo spatial Business Intelligence (Geo-BI) can be harnessed using a collective design approach to develop an integrated solution; the SMART Infrastructure Dashboard (SID). While providing a much needed planning and policy support tool for the local governance of infrastructure services, SID pushes the boundary of Geo-BI beyond its traditional use.

A new web-based solution for modelling data mining processes

Author(s): ViktorMedvedevOlgaKurasova_JolitaBernatavičienė_ PovilasTreigys_ VirginijusMarcinkevičius- GintautasDzemyda

Year: 2017

Published: Simulation Modelling Practice and Theory, Volume 76, August 2017, Pages 34-46

Abstract:

The conventional technologies and methods are not able to store and analyse recent data that come from different sources: various devices, sensors, networks, transactional applications, the web, and social media. Due to a complexity of data, data mining methods should be implemented using the capabilities of the Cloud technologies. In this paper, a new web-based solution named DAMIS, inspired by the Cloud, is proposed and implemented. It allows making massive data mining simpler, effective, and easily understandable for data scientists and business intelligence professionals by constructing scientific workflows for data mining using a drag and drop interface. The usage of scientific workflows allows composing convenient tools for modelling data mining processes and for simulation of real-world time- and resource-consuming data mining problems. The solution is useful to solve data classification, clustering, and dimensionality reduction problems. The DAMIS architecture is designed to ensure easy accessibility, usability, scalability, and portability of the solution. The proposed solution has a wide range of applications and allows to get deep insights into the data during the process of knowledge discovery.

Popular protest and political budget cycles: A panel data analysis

Author(s): JeroenKlomp_ Jakobde Haan

Year: 2013

Published: Economics Letters, Volume 120, Issue 3, September 2013, Pages 516-520

Abstract:

We test the hypothesis that governments facing popular protest are more likely to use fiscal policy for re-election purposes, employing data of 65 democratic countries–both developed and developing–over the period 1975–۲۰۰۵. Using the number of anti-government demonstrations and general strikes in pre-election years as measures of popular protest, our results lend support to this hypothesis. The effect of protest on the manipulation of fiscal policy for re-election purposes is strongest in young democracies.

Business Intelligence applied in Small Size for Profit Companies

Author(s): CarmineD’Arconte

Year: 2018

Published: Procedia Computer Science, Volume 131, 2018, Pages 45-57

Abstract:

With the expression, “Business Intelligence” we refer to intelligent technologies that may help companies improve their performances and have better possibilities to survive and develop. Anyway, in this regard, we sometimes have a double negative impression, namely that on one side there is a certain lack of practical indications on how to apply this in everyday companies’ life and, secondly, that it is often not taken into due consideration the extremely reduced size of companies, the limited entrepreneurial competences and the scarce availability of technologies. In this paper, apart from highlighting the role of Business Intelligence in practice, we try to find a way to apply it also in small size companies focusing on two critical aspects, namely customer’s profitability and their satisfaction level that, especially if considered in their reciprocal interaction, may have a great impact on companies’ outcomes though using simple technologies

Apache Spark a Big Data Analytics Platform for Smart Grid

Author(s): Shyam R._ BharathiGanesh H.B._ SachinKumar S- PrabaharanPoornachandran_ Soman K.P.

Year: 2015

Published: Procedia Technology, Volume 21, 2015, Pages 171-178

Abstract:

Smart grid is a complete automation system, where large pool of sensors is embedded in the existing power grids system for controlling and monitoring it by utilizing modern information technologies. The data collected from these sensors are huge and have all the characteristics to be called as Big Data. The Smart-grid can be made more intelligent by processing and deriving new information from these data in real time. This paper presents Apache spark as a unified cluster computing platform which is suitable for storing and performing Big Data analytics on smart grid data for applications like automatic demand response and real time pricing.

Temperature Monitoring System Based on Hadoop and VLC

Author(s): TongZhou_ XingguangLee_ LeiChen

Year: 2018

Published: Procedia Computer Science, Volume 131, 2018, Pages 1346-1354

Abstract:

This paper presents a temperature monitoring system based on Hadoop and visible light communication (VLC). The system includes two parts: temperature acquisition and temperature monitoring. Temperature acquisition section uses visible light communication to transfer temperature data. In the test for temperature acquisition, we used a CMOS camera to receive the temperature data of 20 nodes in the range of 40 meters, which realized efficient transmission of data. The main body of the temperature monitoring section is the Hadoop cluster. Hadoop and its components enable distributed storage and remote monitoring for massive temperature data. Hardware environment of Hadoop is composed of six computers and the software environment is CentOS6.4 operating system based on the Linux 2.6 kernel. In the test of temperature monitoring, we monitored 200 rooms with 1000 temperature sensors in 10 floors totally. The Hadoop platform manages 1000 temperature data records per minute, giving 1.44 million data records a day totally. The data error rate turns out to be within 3% when we added a lampshade to the LED array of VLC transmitter.

Chapter 8 - Big Data Challenges and Hazards Modeling

Author(s): Kristy F.Tiampo_ SethMcGinnis_ YelenaKropivnitskaya_ JinhuiQin_ Michael A.Bauer

Year: 2018

Published: Risk Modeling for Hazards and Disasters, – Pages 193-210- 2018

Abstract:

In this work we present an overview of the challenges presented by remote sensing and other big data sources for hazards modeling and response in the world today. Big data not only provides vital information for rapid and efficient assessment of the effects and impacts of natural and anthropogenic effects, but is also an important boundary object facilitating communication and interaction between the relevant scientific, business, and governmental organizations. To effectively serve that role, big data must be credible, salient, and legitimate. The characteristics of big data are examined and we conclude that the most important ones for this application are volume, velocity, variety, and value. We present two different applications from the fields of climate and the solid earth science that are designed to solve these challenges for big data scenic.

Advanced microstructure classification by data mining methods

Author(s): JessicaGola_ DominikBritz_ ThorstenStaudt_ MarcWinter_ Andreas SimonSchneider_ MarcLudovici_ FrankMücklich

Year: 2018

Published: Computational Materials Science, Volume 148, 1 June 2018, Pages 324-335

Abstract:

The mechanical properties of modern multi-phase materials significantly depend on the distribution, the shape and the size of the microstructural constituents. Thus, quantification and classification of the microstructure are decisive in identifying the underlying structure-property relationship of a specific material. Due to the complexity of the microstructure in modern materials, a reliable classification of microstructural constituents remains one of the biggest challenges in metallography. The present study demonstrates how data mining methods can be used to determine varying steel structures of two-phase steels by evaluating their morphological parameters.

A data mining process was developed by using a support vector machine as classifier to build a model that is able to distinguish between different microstructures of the two-phase steels. The impact of preprocessing and feature selection methods on the classification result was tested.

ضرورت‌ها، پیش نیازها، چالش‌ها و مراحل استقرار هوش تجاری در سازمان‌ها

نویسنده (گان): سید محمود شجاعی کیاسری_ دکتر علیرضا طالب پور _ احمد فراهی _ مونا بخارایی نیا

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس بین المللی مدیریت، اقتصاد و مهندسی صنایع

چکیده

مدیران شرکت‌های خصوصی و سازمان‌های دولتی برای استقرار هوش تجاری اعلام نیاز می‌کنند، چراکه از طرق مختلف با ابزارها و فواید استقرار هوش تجاری در سازمانشان آگاه گشته اند و درک خوبی از میزان تاثیر این سیستم‌ها بر رشد، بقاء، مدیریت بهینه و دستیابی به اهداف سازمانی و بدست آوردن مزیت‌های رقابتی در بازار متلاطم موجود سازمان بدست آورده‌اند. اما بررسی و شناخت مزایای استقرار هوش تجاری در سازمان به تنهایی نمی‌تواند منجر به استقرار موفق و استفاده کامل از هوش تجاری در سازمان‌ها شود و مطالعات هنوز نشان دهنده ضعف‌هایی در شناخت، استقرار و استفاده صحیح از هوش تجاری در سازمان‌ها است. آنچه در این مقاله به بررسی آن پرداخته شده است، بررسی ضرورت‌های موجود برای استقرار هوش تجاری، پیش نیازهای استقرار هوش تجاری از بعد فنی و زیرساخت‌ها و از بُعد نیروی انسانی متخصص و روش سنجش میزان آمادگی سازمان برای استقرار هوش تجاری، بررسی چالش‌های پیش روی سازمان‌ها در استقرار هوش تجاری و آشنایی با مراحل استقرار هوش تجاری در سازمان‌هاست. نتایج این تحقیق میتواند اطلاعات بسیار مفیدی را دراختیار تصمیم گیرندگان و مدیران فناوری اطلاعات در سازمان‌ها قرار دهد تا شناخت کامل‌تری نسبت به ابعاد هوش تجاری پیدا کنند تا هزینه‌ها و احتمال شکست در استقرار هوش تجاری را کاهش دهند. در بخش پایانی، به بررسی دلایل عمده شکست پروژه‌های هوش تجاری پرداخته شده است.

بررسی نظری نقش هوشمندی استراتژیک در توسعه تفکر استراتژیک سازمانی

نویسنده (گان): حق شناس گرگابی محمد_خسروی محمد

سال انتشار: ۱۳۹۵

ارائه شده در: کنفرانس بین المللی مدیریت و اقتصاد در قرن ۲۱

چکیده مقاله:

در موقعیت کسب و کار نقش اصلی هوش استراتژیک تاکید بر چگونگی بهتر شدن موقعیت سازمانی برای کنترل آینده، چالش ها و فرصت هایی است که موفقیت سازمان را افزایش می دهد هوش استراتژیک یکی از موارد بهینه سازی تصمیم گیری رهبران ارشد است که در خلال هم افزایی مدیریت دانش، هوش رقابتی و هوش تجاری از هوش استراتژیک به عنوان یکی از تعیین کنندگان کلیدی تصمیم گیری موفق یاد می شود. هوش استراتژیک اغلب با مفاهیمی همچون داده، اطلاعات، هوش و دانش در تعامل است؛ و در حوزه تصمیمات استراتژیک نقش کلیدی ایفا می کند. از طرفی تفکر استراتژیک را به عنوان سبک جداگانه ای از اندیشیدن، در برابر انواع دیگر تفکر از قبیل تفکر سیستمی، شهودی، تحلیلی و … مطرح می کنند که یک فرایند تحلیل، ارزیابی و بازتاب طبیعت کسب وکار، درک موقعیت فعلی و وضعیت های ممکن آینده، خلق چشم انداز از آینده سازمان، توسعه ابزارها و روش های ممکن برای دستیابی به این چشم انداز، وزن دادن به انتخاب ها و تصمیم گیری در مورد نحوه عمل کردن است. هدف این مقاله تبیین ویژگی های هوشمندی استراتژیک و تفکر استراتژیک و مقایسه آن ها و مشخص سازی نقش هوشمندی استراتژیک در ارتباط با تفکر استراتژیک سازمانی است که با روش تحقیق کیفی بامطالعه کتابخانه ای بر اساس تحلیل محتوا و تفسیر مفاهیم مرتبط با موضوع هوش استراتژیک و تفکر استراتژیک به صورت فرا تحلیل درصدد یافتن نقش هوش استراتژیک در توسعه تفکر استراتژیک است. نتایج این پژوهش نشان می دهد که ابعاد هوشمندی استراتژیک شامل هوش تجاری، هوش رقابتی و مدیریت دانش و همین طور انواع هوشمندی استراتژیک برای توسعه و بهبود تفکر استراتژیک نقش بسزایی دارد.

Business intelligence systems use in performance measurement capabilities: Implications for enhanced competitive advantage

Author(s): Matt D.Peters_ BernhardWieder_ Steve G.Sutton_JamesWakefield

Year: 2016

Published: International Journal of Accounting Information Systems, Volume 21, June 2016, Pages 1-17

Abstract:

The purpose of this study is to better understand how the quality of a Business Intelligence (BI) system improves the diagnostic and interactive dimensions of management control systems (MCS), thereby enhancing performance measurement capabilities, which in turn are positively associated with competitive advantage. Integrating theory from performance measurement, organizational learning and the knowledge-based view of the firm, a theoretical model is developed that considers three concepts of BI quality (infrastructure integration, functionality, and self-service) and the roles they play in enhancing diagnostic and interactive performance measurement capabilities. Data collected via survey from 324 CEOs and CFOs provides support for the theorized effects of BI quality on performance measurement capabilities. These capabilities in turn are positively associated with competitive advantage

Accounting Information Systems: The Challenge of the Real-time Reporting

Author(s): AntónioTrigo_ FernandoBelfo_ Raquel PérezEstébanez

Year: 2014

Published: Procedia Technology, Volume 16, 2014, Pages 118-127

Abstract:

We introduce a framework called the Analytic Processes Maturity Model (APMM) for evaluating the analytic maturity of an organization. The APMM identifies analytic-related processes in six key process areas: i) building analytic models; ii) deploying analytic models; iii) managing and operating analytic infrastructure; iv) protecting analytic assets through appropriate policies and procedures; v) operating an analytic governance structure; and vi) identifying analytic opportunities, making decisions, and allocating resources based upon an analytic strategy. Based upon the maturity of these processes, the APMM divides organizations into five maturity levels: 1) organizations that can build reports; 2) organizations that can build and deploy models; 3) organizations that have repeatable processes for building and deploying analytics; 4) organizations that have consistent enterprise-wide processes for analytics; and 5) enterprises whose analytics is strategy driven. The APMM is broadly based upon the Capability Maturity Model that is the basis for measuring the maturity of processes for developing software

A framework for evaluating the analytic maturity of an organization

Author(s): Robert L.Grossman

Year: 2018

Published: International Journal of Information Management, Volume 3, Issue 1, February 2018, Pages 45-51

Abstract:

We introduce a framework called the Analytic Processes Maturity Model (APMM) for evaluating the analytic maturity of an organization. The APMM identifies analytic-related processes in six key process areas: i) building analytic models; ii) deploying analytic models; iii) managing and operating analytic infrastructure; iv) protecting analytic assets through appropriate policies and procedures; v) operating an analytic governance structure; and vi) identifying analytic opportunities, making decisions, and allocating resources based upon an analytic strategy. Based upon the maturity of these processes, the APMM divides organizations into five maturity levels: 1) organizations that can build reports; 2) organizations that can build and deploy models; 3) organizations that have repeatable processes for building and deploying analytics; 4) organizations that have consistent enterprise-wide processes for analytics; and 5) enterprises whose analytics is strategy driven. The APMM is broadly based upon the Capability Maturity Model that is the basis for measuring the maturity of processes for developing software

Measuring the maturity of business intelligence in healthcare: Supporting the development of a roadmap toward precision medicine within ISMETT hospital

Author(s): LucaGastaldi_ AstridPietrosi_ SinaLessanibahri_ MarcoPaparella- AntonioScaccianoce_ GiuseppeProvenzale_ MarianoCorso_ BrunoGridelli

Year: 2018

Published: Technological Forecasting and Social Change, Volume 128, March 2018, Pages 84-103

Abstract:

Business Intelligence (BI) has the potential to disrupt the processes through which healthcare services are offered. Despite this key role, most healthcare organizations fail in implementing or extending BI suites from the pilot niches in which these solutions are usually developed and tested to larger domains. In fact, healthcare practitioners lack comprehensive models that suggest the priorities to be followed for progressively developing a BI solution. This paper aims to start filling these gaps by developing a model through which: (i) to measure and increase the maturity of a BI solution within a healthcare organization; (ii) to enable extensive processes of benchmarking and continuous improvement.

تاثیربکارگیری برنامه ریزی منابع سازمان (ERP) در استقرار هوش رقابتی(CI)در سازمانهای کوچک و متوسط

نویسنده (گان): هادی خادمی_ جمشید صالحی صدقیانی_موسی رضوانی چمن زمین_مونا مهران_جواد خادمی

سال انتشار: ۱۳۹۳

ارائه شده در: مطالعات مدیریت فناوری اطلاعات سال دوم تابستان ۱۳۹۳ شماره ۸

چکیده مقاله:

در سالهای اخیر ورود سامانه های “”برنامه ریزی منابع سازمانی”” ) ERP ( به سازمان های کوچک و متوسط ) SMEs ( موردتوجه شرکتهای ایرانی قرارگرفته اند. نیاز روزافزون به این ابزار و وجود چالش ها در مسیر اجرا، مطالعه، شناخت و بررسی ابعاد مدیریتی این سامانه ها را ضروری می سازد. هوشمندی رقابتی به عنوان یکی از مفاهیم نوین مدیریتی موجب تسریع جریان تبادل اطلاعات و دانش در سازمان شده و اثربخشی تفکر راهبردی و سیستم تصمیم گیری را بهبود می دهد. در این پژوهش به بررسی ارتباط مزایای سامانه های برنامه ریزی منابع سازمان با هوش رقابتی و پشتیبانی تصمیم گیری در حوزه فعالیت کسب وکارهای کوچک و متوسط پرداخته شده است، نمایندگی های شرکت بیمه معلم استان تهران به عنوان مطالعه موردی انتخاب شد و با استفاده از تحلیل های آماری، فرضیه هایی در زمینه وجود و شدت ارتباط میان مؤلفه های مزایای ERP و  کارشناسی ارشد مدیریت اجرایی، دانشگاه علامه طباطبایی، تهران ) نویسنده مسئول ( Mehran_emba@yahoo.com هوش رقابتی شرکت بررسی و تائید شدند. نتایج مطالعه مقیاس هایی را برای مدل اثر مزایای ERP بر ظرفیت های CI ارائه کرده است.

بررسی تأثیر شایستگی‌ هوش تجاری بر فرایند مدیریت ارتباط با مشتری: مطالعۀ تجربی در صنعت بانکداری

نویسنده (گان): علی مرتضایی_ محمد صادق سنگری_ سلمان نظری شیرکوهی_ جعفر رزمی

سال انتشار: ۱۳۹۷

ارائه شده در: مقاله ۱۲۷، دوره ۱۰، شماره ۱، بهار ۱۳۹۷، صفحه ۲۰۹-۲۳۴ در نشریه مدیریت فناوری اطلاعات دانشکده مدیریت

چکیده مقاله:

امروزه، ایجاد روابط بلندمدت و مؤثر با مشتریان یکی از مؤلفه ­های کلیدی درک اولویت‌ها و نیازهای آنها و کسب مزیت رقابتی است. همچنین، سازمان­ها با نیاز فزاینده به اطلاعات و دانش تحلیلی دربارۀ مشتریان، بازار، رقبا، محیط سازمانی و سایر عوامل مؤثر بر کسب­و­کار مواجه‎اند که باعث توجه به هوش تجاری به ­عنوان راه­حلی برای پاسخ به این نیاز شده است. هدف این پژوهش، مطالعۀ نقش شایستگی‌ هوش تجاری در بهبود فرایند مدیریت ارتباط با مشتری است. به این منظور بر اساس مرور ادبیات و تئوری رابطۀ شایستگی ـ قابلیت، یک مدل مفهومی دربرگیرندۀ ابعاد شایستگی هوش تجاری و فرایندهای مدیریت ارتباط با مشتری ارائه شده است. داده‌های پژوهش از حوزۀ بانکداری جمع آوری شده و با استفاده از روش مدل‌سازی معادلات ساختاری مبتنی بر حداقل مربعات جزئی تجزیه‌ و‌ تحلیل شده است. یافته­ های تجربی نشان داد شایستگی‌ هوش تجاری سازمان از نظر برخورداری از شایستگی‌های مدیریتی، فنی و فرهنگی، بر ارتقای قابلیت­های فرایند مدیریت ارتباط با مشتری شامل فرایندهای آغاز، حفظ و خاتمۀ ارتباط با مشتری، تأثیر مثبت و شایان توجهی دارد.

ضرورت استفاده از سیستم های تشخیص پولشویی در بانکداری الکترونیکی

نویسنده (گان): زربخش انصاری پیرسرایی_ اسدالله شاه بهرامی

سال انتشار: ۱۳۹۳

ارائه شده در: روند سال بیست و یکم زمستان ۱۳۹۳ شماره ۶۸

چکیده مقاله:

در دنیای امروز، استفاده از فناوری اطلاعات در تمامی ابعاد زندگی بشر امکان پذیر شده است. یکی از این زمینه ها، صنعت بانکداری الکترونیکی است که امکان انجام عملیات بانکی با استفاده از این تکنولوژی به طور سریع، دقیق، بدون محدودیت مکان و زمان و در هر لحظه از شبانه روز فراهم شده است. از طرفی استفاده از این تکنولوژی ریسک هایی را به همراه دارد که از جمله می توان به انجام عملیات پولشویی اشاره کرد. پولشویان سعی بر این دارند که در بانکداری الکترونیکی از فضای اینترنتی و مجازی بیشترین استفاده را در جهت فعالیت های مجرمانه خود داشته باشند، چرا که نقل و انتقالات پولی بدون واسطه و گمنام می تواند حاشیه امنی را برای آنها ایجاد نماید. روش های پولشویی، با پیشرفت بانکداری الکترونیکی به تدریج پیچیده تر شده و شناسایی آنها با توجه به حجم انبوه اطلاعات، بدون استفاده از سیستم های تشخیص پولشویی میسر نیست. هدف از این مقالهبیان ضرورت استفاده از سیستم های تشخیص پولشویی در بانکداری الکترونیکی و بررسی این سیستم ها بوده تا با توجه به ویژگی های صنعت بانکداری الکترونیکی در ایران، یک سیستم ضدپولشویی برای سیستم بانکی کشور طراحی و ارائه شود.

Social media use in B2b sales and its impact on competitive intelligence collection and adaptive selling: Examining the role of learning orientation as an enabler

Author(s): Omar S.Itani- RajAgnihotri_RebeccaDingus

Year: 2017

Published: Industrial Marketing Management, Volume 66, October 2017, Pages 64-79

Abstract:
This paper examines the use of social media by business-to-business (B2B) salespeople to assist in their job functions. The authors propose that a salesperson’s attitude toward social media usefulness, as well as a salesperson’s learning orientation, will influence how much a salesperson uses social media to assist in day-to-day job tasks. Additionally, the impact that the use of social media has on collecting knowledge about competitors, adapting to customers, and sales performance is considered. Accordingly, a broad literature review is provided to introduce extant theory contributing to the proposed model. The practical uses of social media by salespeople will be described, and then the theoretical foundation is built, encompassing social media use, goal orientations, and adaptive selling theory. Results of an empirical model are provided, followed by a discussion of theoretical and managerial implications.

The use of social media to detect corporate fraud: A case study approach

Author(s): FengXiong-LarelleChapple _ HaiyingYin

Year: 2018

Published: Business Horizons, Volume 61, Issue 4, July–August 2018, Pages 623-633

Abstract:

Social media is a rapid and dynamic medium of communication that forms a crucial component of the modern business toolkit. It can be used to detect corporate fraud by tapping into collective user wisdom, also known as the wisdom of crowds. This article highlights both the potential and limitations of social media in detecting corporate fraud by examining information from traditional media and social media for a recent corporate fraud case (i.e., Empowered Products Inc.). Using text analysis of information posted on traditional media compared to social media, this article illustrates how social media provides an increased level of relevant information in a faster manner. By using wisdom of crowds in this way, social media platforms such as Twitter can improve organizational knowledge quality. We identify methods for managers to utilize social media to improve their organizational knowledge management.

Business intelligence & analytics in management accounting research: Status and future focus

Author(s): PallRikhardsson_ OganYigitbasioglu

Year: 2018

Published: International Journal of Accounting Information Systems, Volume 29, June 2018, Pages 37-58

Abstract:

Executives see technology, data and analytics as a transforming force in business. Many organizations are therefore implementing business intelligence & analytics (BI&A) technologies to support reporting and decision-making. Traditionally, management accounting is the primary support for decision-making and control in an organization. As such, it has clear links to and can benefit from applying BI&A technologies. This indicates an interesting research area for accounting and AIS researchers. However, a review of the literature in top accounting and information systems journals indicates that to date, little research has focused on this link. This article reviews the literature, points to several research gaps and proposes a framework for studying the relationship between BI&A and management accounting.

تاثیر استانداردهای بین المللی مبارزه با پولشویی و تامین مالی تروریسم بر صورت های مالی بانک ها در ایران

نویسنده (گان): عبدالحسین انصاری- سلیمه انصاری – انسیه انصاری

سال انتشار: ۱۳۹۶

ارائه شده در: اولین همایش سالانه مدیریت، حسابداری و اقتصاد ایران

چکیده مقاله:

واژه پولشویی، فرایندی را ترسیم می کند که در خلال آن، پول کثیف و در واقع پل حاصل از عمل یا اهمال مجرمانه تطهیر می شود به گونه ای که به پول مشروع و بدون هیچ اثری از جرم منشاء تبدیل می شود. ورود این واژه به ادبیات حقوقی و نیز قانون گذاری در زمینه مبارزه با پولشویی، حدودا به بیست و هفت سال پیش بر می گردد، لیکن اکنون اغلب کشورهای جهان قوانینی دارند که به موجب آن عمل پولشویی، به صراحت جرمانگاری شده است. همچنین چهار چوب ها و مقررات منطقه ای و بین المللی قابل ملاحظه ای در زمینه مبارزه با پولشویی تدوین شده است. در این مقاله به بررسی، چهل توصیه استاندارد مبارزه با پولشویی که در قالب هفت عنوان کلی، سیاست ها و هماهنگی ها در زمینه مبارزه با پولشویی و مبارزه با تامین مالی تروریسم، پولشویی و مصادره، تامین مالی تروریسم و تامین مالی برای اشاعه سلاحهای کشتار جمعی، اقدامات پیشگیرانه، شفافیت و مالکیت ذینفعان اشخاص و ترتیبات، اختیارات و مسیولیت مراجع ذیصلاح و سایر تدابیر سازمانی، همکاری های بین المللی حقوقی پرداخته شده است. در ادامه تاثیر این استاندارد بر صورت های مالی بانک ها در ایران شرح داده شده و راه کار اجرایی عملیاتی بودن یا نبودن این استاندارد را بررسی می کنیم.

Advanced microstructure classification by data mining methods

Author(s):JessicaGola_ DominikBritz_ThorstenStaudt_ MarcWinter_ Andreas SimonSchneider_ MarcLudovici_ FrankMücklich

Year: 2018

Published: Computational Materials Science, Volume 148, 1 June 2018, Pages 324-335

Abstract:

The mechanical properties of modern multi-phase materials significantly depend on the distribution, the shape and the size of the microstructural constituents. Thus, quantification and classification of the microstructure are decisive in identifying the underlying structure-property relationship of a specific material. Due to the complexity of the microstructure in modern materials, a reliable classification of microstructural constituents remains one of the biggest challenges in metallography.

The present study demonstrates how data mining methods can be used to determine varying steel structures of two-phase steels by evaluating their morphological parameters.

A data mining process was developed by using a support vector machine as classifier to build a model that is able to distinguish between different microstructures of the two-phase steels. The impact of preprocessing and feature selection methods on the classification result was tested.

بررسی ویژگی های رفتاری و کارکردی مشتریان شرکت مخابرات با رویکرد مدیریت ارتباط با مشتری با استفاده از روش های مبتنی بر داده کاوی

نویسنده (گان): فاطمه احمدی آبکناری_شیرین احدزاده قناد

سال انتشار: ۱۳۹۶

ارائه شده در: تحقیقات بازاریابی نوین سال ششم بهار ۱۳۹۵ شماره ۱ (پیاپی ۲۰)

چکیده مقاله:
با رقابتی شدن صنعت مخابرات و رشد انتظارات مشتریان همگام با پیشرفت فناوری های ارتباطی، الزام تعیین و تبیین استراتژی های جدید ارتباط با مشتری در این صنعت احساس می شود. از راهکارهای وصول به این منظور، دسترسی به اطلاعات جامع از مشتریان برای شناخت مؤثر آنها است تا بتوان خدمات متناسب با ویژگی های کارکردی و رفتاری هر دسته را برای بهبود مدیریت ارتباط با مشتری ارائه داد. در این مقاله از اطلاعات پرداخت و بدهکاری مشترکین اداره مخابرات استان گیلان، شهرستان رشت در یک دوره شش ماهه استفاده شده است. اطلاعات مشتریان به صورت خاص خوشه بندی و تحلیل RFM شده و پس از شناخت خوشه های مختلف مشتریان و ارزیابی خوشه بندی بهینه آنها، با استفاده از ماتریس سودآوری وفاداری، از میان خوشه بندی های صورت گرفته، دسته بندی مشتریان هر خوشه انجام شده است. در این پژوهش، داده های مشتریان بر اساس روش تحلیل RFM انتخاب و دسته بندی شده و سپس با استفاده از الگوریتم خوشه بندی K-Means، سه خوشه عمده از مشتریان شناسایی شده اند و بر اساس ویژگی های رفتاری و الگوی مصرف هر خوشه، بسته پیشنهادی خدمات به آنها ارائه شده است. این بسته به منظور بهینه سازی مدیریت ارتباط با مشتری و ارائه خدمات بهتر در جهت افزایش ارزش حیات مشتری ارائه شد.

روش جدیدی برای رتبه بندی قواعد حاصل از داده کاوی با استفاده از تحلیل پوششی داده ها

نویسنده (گان): حسین عزیزی

سال انتشار: ۱۳۹۵

ارائه شده در: مدیریت صنعتی، سال یازدهم پاییز ۱۳۹۵ شماره ۳۷

چکیده مقاله:
تکنیک های داده کاوی، یعنی استخراج الگوها از پایگاه های داده ای بزرگ، در تجارت به صورت گسترده ای مورد استفاده قرار می گیرند. با استفاده از این تکنیک ها ممکن است قواعد زیادی حاصل شوند و فقط تعداد کمی از آنها به دلیل محدودیت بودجه و منابع برای پیاده سازی در نظر گرفته شوند. ارزیابی و رتبه بندی جالب بودن و مفید بودن قواعد انجمنی در داده کاوی اهمیت زیادی دارد. در مطالعات قبلی که در مورد شناسایی قواعد انجمنی جالب از نظر ذهنی انجام شده است، اکثر روش ها مستلزم وارد کردن دستی یا پرسیدن از کاربر برای افتراق صریح قواعد جالب از ناجالب بوده است. این روش ها نیازمند محاسبات بسیار زیادی هستند و حتی ممکن است به نتیجه گیری های ناسازگار منتهی شوند. برای غلبه بر این مشکلات، این مقاله پیشنهاد می کند که از رویکرد تحلیل پوششی داده ها (DEA) با مرز دوگانه برای انتخاب کارآترین قاعده ی انجمنی استفاده شود. در این رویکرد علاوه بر بهترین کارآیی نسبی هر قاعده ی انجمنی، بدترین کارآیی نسبی آن نیز در نظر گرفته می شود. در مقایسه با DEAی سنتی، رویکرد DEA با مرز دوگانه می تواند کارآترین قاعده ی انجمنی را به درستی و به آسانی شناسایی کند. به عنوان یک مزیت، رویکرد پیشنهادی از نظر محاسباتی کارآمدتر از کارهای قبلی در این زمینه است. با استفاده از مثالی از تحلیل سبد بازار، قابلیت کاربرد روش مبتنی بر DEAی ما برای اندازه گیری کارآیی قواعد انجمنی با معیارهای چندگانه نشان داده خواهد شد.

سنجش اعتماد و خوشنامی در شبکه های اجتماعی با رویکردهای داده کاوی

نویسنده (گان): علی رستمی- نوید نظافتی

سال انتشار: ۱۳۹۵

ارائه شده در: پژوهش ملل دوره اول مرداد ۱۳۹۵ شماره ۸

چکیده مقاله:
شبکه های اجتماعی مجموعه ای از روابط اجتماعی هستند، که اعتماد یکی از ویژگی های مهم آن روابط محسوب می شود. بی اعتمادی زمینه ساز عدم همکاری و بی نظمی در جامعه می گردد. از اینرو هدف اصلی این پژوهش، بررسی عوامل موثر بر اعتماد و خوشنامی در شبکه های اجتماعی به وسیله داده کاوی می باشد. تولید و فرسایش اعتماد در ساختارهای شبکه های اجتماعی را می توان به وفور یافت. از آنجایی که تعامل های اجتماعی درون روابط اجتماعی رخ می دهند، چگونگی انتخاب طرف تعامل می تواند بر شکل گیری اعتماد تأثیرگذار باشد. جامعه آماری تحقیق شامل ۲۰۰ نفر از دانشجویان دانشگاه آزاد واحد الکترونیکی که بین آنها پرسشنامه توزیع شده است، می باشد. این پرسشنامه برگرفته از مدل مایر و همکاران (۱۹۹۵) و میشرا (۱۹۹۶) می باشد. و از پرسشنامه اعتماد در فضای ارتباطی مجازی اُسورا و همکاران(۲۰۰۷) تهیه شده است. پس از تهیه، پرسشنامه در اختیار جامعه آماری قرار گرفته شد و پس از جمع آوری اطلاعات وارد برنامه کلمنتاین شده و در ادامه نتایج استخراج گردید.

Business intelligence in online customer textual reviews: Understanding consumer perceptions and influential factors

Author(s): XunXu_ XuequnWangYibaiLi_ MohammadHaghighi

Year: 2017

Published: International Journal of Information Management, Volume 37, Issue 6, December 2017, Pages 673-683

Abstract:

With the rapid development of information technology, customers not only shop online—they also post reviews on social media. This user-generated content (UGC) can be useful to understand customers’ shopping experiences and influence future customers’ purchase intentions. Therefore, business intelligence and analytics are increasingly being advocated as a way to analyze customers’ UGC in social media and support firms’ marketing activities. However, because of its open structure, UGC such as customer reviews can be difficult to analyze, and firms find it challenging to harness UGC. To fill this gap, this study aims to examine customer satisfaction and dissatisfaction toward attributes of hotel products and services based on online customer textual reviews. Using a text mining approach, latent semantic analysis (LSA), we identify the key attributes driving customer satisfaction and dissatisfaction toward hotel products and service attributes. Additionally, using a regression approach, we examine the effects of travel purposes, hotel types, star level, and editor recommendations on customers’ perceptions of attributes of hotel products and services. This study bridges customer online textual reviews with customers’ perceptions to help business managers better understand customers’ needs through UGC.

Business intelligence for performance measurement: A case based analysis

Author(s): VamsiVallurupalli-IndranilBose

Year: 2018

Published: Decision Support Systems, Volume 111, July 2018, Pages 72-85

Abstract:

The adoption of IT-based performance measurement systems (PMS) has increased in recent times. The proliferation of business intelligence (BI) has significantly impacted performance measurement in organizations. In this paper a novel process-based framework is proposed to enable end-to-end analysis of technology driven PMS implementation in an organization. The framework has been used to study PMS implementation in a large manufacturing firm in India. The analysis of the case provides key lessons about successful planning, execution and adoption of a BI based PMS as well as identification of critical success factors (CSF) in the implementation of PMS, that would be of interest to organizations planning to implement a similar system.

Modeling the money launderer: Microtheoretical arguments on anti-money laundering policy

Author(s): Killian J.McCarthy_ Petervan Santen, IngoFiedler

Year: 2015

Published: International Review of Law and Economics, Volume 43, August 2015, Pages 148-155

Abstract:

The existing literature treats the criminal – who generates criminal proceeds – and the launderer – who converts the ‘dirty’ dollars into ‘clean’ ones – as one and the same. And with good reason: it is clear from the evidence that such ‘standard’ vertically integrated launderers exists. Because professionals and institutions are also routinely prosecuted for money laundering transgressions, however, it appears that the market for money laundering is also supplied by third party, ‘professional’ launderers, whose core business lies outside the criminal sector, but who chooses to spend time supplying the market for money laundering.

In this paper we introduce the professional launder to the literature, and consider the process by which the launderer and the criminal bargain, to agree on a price for the money laundering service. We then consider the effects of three anti-crime, or anti-money laundering measures – namely, (1) increasing the probability that the criminal is caught, (2) increasing the probability that the launderer is caught, and (3) increasing the probability that the bargaining process itself is detected – on the way in which the negotiation is concluded. Of the various combinations available to the policy maker, we conclude that more resources should be spend on specialized police-units to tackle money laundering and, when the budget is fixed, less should be spent on financial scrutiny. Current approaches, we find, do not deter money launderers from supplying the market, but simply increase the profitability of money laundering and decrease the profitability of legitimate business.

Money laundering regulatory risk evaluation using Bitmap Index-based Decision Tree

Author(s): VikasJayasree, V.Siva Balan

Year: 2017

Published: Journal of the Association of Arab Universities for Basic and Applied Sciences, Volume 23, June 2017, Pages 96-102

Abstract:
This paper proposes to evaluate the adaptability risk in money laundering using Bitmap Index-based Decision Tree (BIDT) technique. Initially, the Bitmap Index-based Decision Tree learning is used to induce the knowledge tree which helps to determine a company’s money laundering risk and improve scalability. A bitmap index in BIDT is used to effectively access large banking databases. In a BIDT bitmap index, account in a table is numbered in sequence with each key value, account number and a bitmap (array of bytes) used instead of a list of row ids. Subsequently, BIDT algorithm uses the “select” query performance to apply count and bit-wise logical operations on AND. Query result coincides exactly to build a decision tree and more precisely to evaluate the adaptability risk in the money laundering operation. For the root node, the main account of the decision tree, the population frequencies are obtained by simply counting the total number of “۱” in the bitmaps constructed on the attribute to predict money laundering and evaluate the risk factor rate. The experiment is conducted on factors such as regulatory risk rate, false positive rate, and risk identification time.

Interest-based recommendations for business intelligence users

Author(s): KristaDrushku_ JulienAligon_ NicolasLabroche_ PatrickMarcel_ VerónikaPeralta

Year: 2018

Published: Information Systems, Available online 11 September 2018

Abstract:
Mobile business intelligence solutions offer an important real time support in making decisions in companies, thus ensuring the efficient correlation of organizational strategy with the new trends in the ICT industry and gaining important competitive advantages. In this context, the present study regarding business intelligence solutions for mobile platforms, both open source or commercial, weather web-based or app-based offered by the software industry, represents an important information source for preparing and making the decision concerning the adoption of a software solution from this category, depending on the needs and activity profile of the company.

Business Intelligence Solutions for Mobile Devices – An Overview

Author(s): Mihaela FilofteiaTutunea

Year: 2015

Published: Procedia Economics and Finance, Volume 27, 2015, Pages 160-169

Abstract:

Mobile business intelligence solutions offer an important real time support in making decisions in companies, thus ensuring the efficient correlation of organizational strategy with the new trends in the ICT industry and gaining important competitive advantages. In this context, the present study regarding business intelligence solutions for mobile platforms, both open source or commercial, weather web-based or app-based offered by the software industry, represents an important information source for preparing and making the decision concerning the adoption of a software solution from this category, depending on the needs and activity profile of the company.

Big data, big decisions: The impact of big data on board level decision-making

Author(s): AlessandroMerendino_ SallyDibb_ MaureenMeadows_ LeeQuinn, DavidWilson_ LyndonSimkin_ AnaCanhoto

Year: 2018

Published: Journal of Business Research, Volume 93, December 2018, Pages 67-78

Abstract:

Big Data (BD) has the potential to ‘disrupt’ the senior management of organisations, prompting directors to make decisions more rapidly and to shape their capabilities to address environmental changes. This paper explores whether, how and to what extent BD has disrupted the process of board level decision-making. Drawing upon both the knowledge-based view, and cognitive and dynamic capabilities, we undertook in-depth interviews with directors involved in high-level strategic decision-making. Our data reveal important findings in three areas. First, we find evidence of a shortfall in cognitive capabilities in relation to BD, and issues with cognitive biases and cognitive overload. Second, we reveal the challenges to board cohesion presented by BD. Finally, we show how BD impacts on responsibility/control within senior teams. This study points to areas for development at three levels of our analysis: individual directors, the board, and a broader view of the organisation with its external stakeholders.

Big data: More than big data sets

Author(s): Adrienne N.CobbMD_ Andrew J.BenjaminMD_ Erich S.HuangMD_ PhD, Paul C.KuoMD

Year: 2018

Published: Surgery, Volume 164, Issue 4, October 2018, Pages 640-642

Abstract:

The term big data has been popularized over the past decade and is often used to refer to data sets that are too large or complex to be analyzed by traditional means. Although the term has been utilized for some time in business and engineering, the concept of big data is relatively new to medicine. The reception from the medical community has been mixed; however, the widespread utilization of electronic health records in the United States, the creation of large clinical data sets and national registries that capture information on numerous vectors affecting healthcare delivery and patient outcomes, and the sequencing of the human genome are all opportunities to leverage big data. This review was inspired by a lively panel discussion on big data that took place at the 75th Central Surgical Association Annual Meeting. The authors’ aim was to describe big data, the methodologies used to analyze big data, and their practical clinical application.

مدیریت تسهیلات اعتباری با استفاده از توسعه تحلیل پوششی داده ها

نویسنده (گان): طاهره علی حیدری بیوکی- حسن خادمی زارع- حسن حسینی نسب

سال انتشار: ۱۳۹۴

ارائه شده در: پژوهش های مدیریت عمومی سال هشتم زمستان ۱۳۹۴ شماره ۳۰

چکیده مقاله:
مدیریت صحیح منابع محدود بانک ها با وجود متقاضیان فراوان تسهیلات یکی از مسایل پیچیده ای است که عدم توجه کافی به آن، باعث ایجاد مشکلات عدیده ای در سازمان می شود. روش ها و تکنیک های بسیاری در زمینه کمک به مدیریت منابع، توسط محقیقن به کارگرفته شده است. مبحث رتبه بندی اعتباری که خود شامل مدل های متنوعی است، از جمله این تکنیک ها به شمار می رود. روش تحلیل پوششی داده ها یکی از پرکاربردترین روش های ناپارامتری در بحث رتبه بندی است. هر چند که استفاده از این روش برای رتبه بندی بسیار مورد استقبال محققان قرار گرفته است لکن پیش شرط متجانس بودن “”واحدهای ارزیابی شونده”” باعث شدهتا کمتر در رتبه بندی واحدهای گروه بندی شده به کارگرفته شود. از این رو در این مقاله روش تحلیل پوششی داده ها به گونه ای توسعه داده شده است که بتوان با استفاده از آن، شرکت های حقوقی متقاضی تسهیلات بانکی که در صنایع و صنف های مختلفی قرار گرفته اند را هم در بین صنایع (بخش های اقتصادی) و هم بین کل شرکت ها رتبه بندی نمود. به عبارت دیگر در این مقاله یک مدل ریاضی گروه محور جدید ارائه شده است که با استفاده از آن بتوان به صورت همزمان اثرات بین گروهی و کل داده ها مورد سنجش قرار گیرد. نتایج حاصل از اجرای روش پیشنهادی نشان داد که مدل، قدرت بالایی در رتبه بندی واحدهای گروه بندی شده دارد.

ارزیابی کارایی شرکت های دولتی خصوصی شده در ایران قبل و بعد از واگذاری به بخش خصوصی با استفاده از تحلیل پوششی داده ها

نویسنده (گان): سهیلا مهدوی- فرشته جوادی

سال انتشار: ۱۳۹۴

ارائه شده در: مطالعات حسابداری و حسابرسی سال چهارم پاییز ۱۳۹۴ شماره ۱۵

چکیده مقاله:
یکی از مهمترین اهداف اجرای سیاست های کلی اصل ۴۴ قانون اساسی، ارتقاء کارایی واحدهای اقتصادی بوده است. این پژوهش با هدف ارزیابی میزان موفقیت دولت در ارتقای کارایی، ۸ شرکت دولتی واگذار شده طی دهه ۸۰ و در بازه زمانی دو سال قبل و دو سال بعد از واگذاری را مورد بررسی قرار می دهد. به منظور ارزیابی کارایی شرکتها از روش تحلیل پوششی داده ها (DEA) و مدلهای CCR و BCC خروجی محور استفاده شده است. نتایج تحقیق نشاندهنده تغییرات کارایی در ۶۳% شرکت های جامعه آماری مورد بررسی در سال های پس از واگذاری نسبت به سال های قبل از واگذاری است. با این وجود، تغییرات مذکور تأییدی بر تأثیر خصوصی سازی بر کارایی شرکت های دولتی واگذار شده نیست، چراکه شرکت های کارا قبل از واگذاری، بعد از واگذاری نیز همچنان کارا بوده اند و عدم کارایی شرکتهای ناکارا پس از واگذاری نیز همچنان ادامه یافته است.

ارائه مدلی برای پیش بینی سودآوری شرکت های داروسازی با استفاده از شبکه عصبی مصنوعی

نویسنده (گان): علی حبیبی- غفار تاری

سال انتشار: ۱۳۹۵

ارائه شده در: مدیریت صنعتی (آزاد سنندج) سال یازدهم تابستان ۱۳۹۵ شماره ۳۶

چکیده مقاله:
هدف این تحقیق تدوین مدلی برای پیشبینی سودآوری شرکتهای داروسازی با استفاده از شبکه عصبی مصنوعی میباشد. روش تحقیق توصیفی- مدلسازی بوده و جامعه آماری این تحقیق کلیه شرکتهای داروسازی فعال عضو بورس اوراق بهادار به تعداد ۲۱ شرکت میباشد. با توجه به محدود بودن جامعه آماری، هیچ گونه نمونهگیری انجام نشده و کل جامعه مورد پیمایش قرار گرفته است. برای جمع آوری دادهها از اسناد و مدارک شرکتهای داروسازی پذیرفته شده در بورس اوراق بهادار تهران و برای تجزیه وتحلیل دادهها از شبکه عصبی مصنوعی استفاده شده است. نتایج بررسیها نشان میدهد که بهترین مدل پیشبینی سودآوری شرکتهای داروسازی با در نظر گرفتن متغیرهای سرمایه در گردش به کل داراییها، سود(زیان) انباشته به کل داراییها، سود قبل از بهره و مالیات به کل داراییها، ارزش بازار حقوق صاحبان سهام به ارزش دفتری بدهیها، فروش به کل داراییها و نقدینگی بدست آمده است.

مکان یابی دستگاه های خودپرداز بانک مهر ایران با استفاده از ترکیب تکنیک های تصمیم گیری چند معیاره در محیط فازی

نویسنده (گان): مرجان توسلی فرد- مهدی ابراهیم نژاد رفسنجانی- سید محمد موسوی ندوشن

سال انتشار: ۱۳۹۶

ارائه شده در: مدیریت صنعتی- سال دوازدهم بهار ۱۳۹۶ شماره ۳۹

چکیده مقاله:
انتخاب جایگاه مناسب برای استقرار ماشین های خودپرداز جدید یکی از مباحث مهم در صنعت بانکداری الکترونیکی به شمار می آید. علم مکان یابی همواره به دنبال ارائه روش ها و تکنیک های بهینه ی تعیین و انتخاب مکان فعالیت بنگاه ها است. با استفاده از تصمیم گیری چند معیاره می توان انتظار داشت که مکان معرفی شده، کلیه معیارهای موردنظر را به نسبت وزنی که دارند ارضا کند. همچنین استفاده از منطق فازی در تصمیم گیری، مسأله عدم قطعیت و عدم دقت مرتبط با آگاهی تصمیم گیرنده در اختصاص دادن وزن دقیق به معیارها را حل کرده است. مطالعه حاضر با استفاده از ترکیب رویکردهای تصمیم گیری چند معیاره در محیط فازی به ارائه مدل نوینی در مکان یابی دستگاه های خودپرداز بانک قرض الحسنه مهر ایران در شهر کرمان پرداخته است. معیارهای تصمیم گیری بر اساس مطالعات مشابه استخراج گردید و توسط کارشناسان بانک قرض الحسنه مهر ایران شهر کرمان با روش اولویت بندی فازی وزن دهی شد. پس ازآن با استفاده از روش تئوری گراف و رویکرد ماتریسی فازی، محدوده ها رتبه بندی شدند.

Modeling the money launderer: Microtheoretical arguments on anti-money laundering policy

Author(s): Killian J.McCarthy, Petervan Santen, IngoFiedler

Year: 2015

Published: International Review of Law and Economics ,Volume 43, August 2015, Pages 148-155

Abstract:

The existing literature treats the criminal – who generates criminal proceeds – and the launderer – who converts the ‘dirty’ dollars into ‘clean’ ones – as one and the same. And with good reason: it is clear from the evidence that such ‘standard’ vertically integrated launderers exists. Because professionals and institutions are also routinely prosecuted for money laundering transgressions, however, it appears that the market for money laundering is also supplied by third party, ‘professional’ launderers, whose core business lies outside the criminal sector, but who chooses to spend time supplying the market for money laundering.

In this paper we introduce the professional launder to the literature, and consider the process by which the launderer and the criminal bargain, to agree on a price for the money laundering service. We then consider the effects of three anti-crime, or anti-money laundering measures – namely, (1) increasing the probability that the criminal is caught, (2) increasing the probability that the launderer is caught, and (3) increasing the probability that the bargaining process itself is detected – on the way in which the negotiation is concluded. Of the various combinations available to the policy maker, we conclude that more resources should be spend on specialized police-units to tackle money laundering and, when the budget is fixed, less should be spent on financial scrutiny. Current approaches, we find, do not deter money launderers from supplying the market, but simply increase the profitability of money laundering and decrease the profitability of legitimate business.

Money laundering through the strategic management of accounting transactions

Author(s): DiegoRavenda, Maika M.Valencia-Silva, Josep M.Argiles-Bosch, JosepGarcía-Blandón

Year: 2018

Published: Critical Perspectives on Accounting, Available online 29 August 2018

Abstract:

We develop new transaction management (TRM) proxies, to find empirical evidence of the strategic management of accounting transactions, aiming to carry out money laundering activities, within a sample of 355 firms controlled by Italian Mafias.

Our results reveal that, using a cluster analysis, Mafia-controlled firms can be classified into two different groups corresponding to real firms and shell firms, based on specific assumptions on their distinctive peculiarities. Importantly, our regression estimations provide evidence of different TRM practices of these firms, which may be linked to specific money laundering activities. Finally, the seizure of Mafia-controlled firms and their assignment to legal administrators only have a significant impact on TRM within Mafia-controlled shell firms, whereas the null impact on TRM, within Mafia-controlled real firms, casts doubt on the ability of legal administrators to completely deter money laundering.

This study proposes new TRM proxies, based on the nature of the expenditure transaction, which could be used by authorities as accounting red flags of money laundering activities. Furthermore, this study may support critical arguments against the orthodox view of the anti-money laundering role of accounting and the suitability of traditional TRM proxies to depict practices within firms sharing common traits with Mafia-controlled firms. Indeed, these firms may engage in TRM for illicit and/or opportunistic purposes, when the external scrutiny is weak, their financial statements are irrelevant for trading with stakeholders, because of competitive advantages or dominant market positions, and they can count on colluded actors as counterparties of money laundering transactions.

An effective early fraud detection method for online auctions

Author(s): Wen-HsiChang_ Jau-ShienChang

Year: 2012

Published: Electronic Commerce Research and Applications- Volume 11, Issue 4, July–August 2012, Pages 346-360

Abstract:

While online auctions continue to increase, so does the incidence of online auction fraud. To avoid discovery, fraudsters often disguise themselves as honest members by imitating normal trading behaviors. Therefore, maintaining vigilance is not sufficient to prevent fraud. Participants in online auctions need a more proactive approach to protect their profits, such as an early fraud detection system. In practice, both accuracy and timeliness are equally important when designing an effective detection system. An instant but incorrect message to the users is not acceptable. However, a lengthy detection procedure is also unsatisfactory in assisting traders to place timely bids. The detection result would be more helpful if it can report potential fraudsters as early as possible. This study proposes a new early fraud detection method that considers accuracy and timeliness simultaneously. To determine the most appropriate attributes that distinguish between normal traders and fraudsters, a modified wrapper procedure is developed to select a subset of attributes from a large candidate attribute pool. Using these attributes, a complement phased modeling procedure is then proposed to extract the features of the latest part of traders’ transaction histories, reducing the time and resources needed for modeling and data collection. An early fraud detection model can be obtained by constructing decision trees or by instance-based learning. Our experimental results show that the performance of the selected attributes is superior to other attribute sets, while the hybrid complement phased models markedly improve the accuracy of fraud detection.

Fraud detection system: A survey

Author(s): AishaAbdallahMohd- Aizainiaarof- AnazidaZainal

Year: 2016

Published: Journal of Network and Computer Applications- Volume 68, June 2016, Pages 90-113

Abstract:

The increment of computer technology use and the continued growth of companies have enabled most financial transactions to be performed through the electronic commerce systems, such as using the credit card system, telecommunication system, healthcare insurance system, etc. Unfortunately, these systems are used by both legitimate users and fraudsters. In addition, fraudsters utilized different approaches to breach the electronic commerce systems. Fraud prevention systems (FPSs) are insufficient to provide adequate security to the electronic commerce systems. However, the collaboration of FDSs with FPSs might be effective to secure electronic commerce systems. Nevertheless, there are issues and challenges that hinder the performance of FDSs, such as concept drift, supports real time detection, skewed distribution, large amount of data etc. This survey paper aims to provide a systematic and comprehensive overview of these issues and challenges that obstruct the performance of FDSs. We have selected five electronic commerce systems; which are credit card, telecommunication, healthcare insurance, automobile insurance and online auction. The prevalent fraud types in those E-commerce systems are introduced closely. Further, state-of-the-art FDSs approaches in selected E-commerce systems are systematically introduced. Then a brief discussion on potential research trends in the near future and conclusion are presented.

From Business Intelligence to semantic data stream management

Author(s): Marie,AudeAufaure_ RajaChiky_OlivierCure_HoudaKhrouf_ GabrielKepeklian

Year: 2016

Published: Future Generation Computer Systems-Volume 63, October 2016, Pages 100-107

Abstract:

The Semantic Web technologies are being increasingly used for exploiting relations between data. In addition, new tendencies of real-time systems, such as social networks, sensors, cameras or weather information, are continuously generating data. This implies that data and links between them are becoming extremely vast. Such huge quantity of data needs to be analyzed, processed, as well as stored if necessary. In this position paper, we will introduce recent work on Real-Time Business Intelligence combined with semantic data stream management. We will present underlying approaches such as continuous queries, data summarization and matching, and stream reasoning

Big Data technologies: A survey

Author(s): AhmedOussous_ Fatima,ZahraBenjelloun_ AyoubAit Lahcen_ SamirBelfkih

Year: 2018

Published: Journal of King Saud University – Computer and Information Sciences- Volume 30, Issue 4, October 2018, Pages 431-448

Abstract:

Developing Big Data applications has become increasingly important in the last few years. In fact, several organizations from different sectors depend increasingly on knowledge extracted from huge volumes of data. However, in Big Data context, traditional data techniques and platforms are less efficient. They show a slow responsiveness and lack of scalability, performance and accuracy. To face the complex Big Data challenges, much work has been carried out. As a result, various types of distributions and technologies have been developed. This paper is a review that survey recent technologies developed for Big Data. It aims to help to select and adopt the right combination of different Big Data technologies according to their technological needs and specific applications’ requirements. It provides not only a global view of main Big Data technologies but also comparisons according to different system layers such as Data Storage Layer, Data Processing Layer, Data Querying Layer, Data Access Layer and Management Layer. It categorizes and discusses main technologies features, advantages, limits and usages.

Possibility of Improving Efficiency within Business Intelligence Systems in Companies

Author(s): MilanKubina_ GabrielKoman_ IrenaKubinova

Year: 2015

Published: Procedia Economics and Finance,Volume 26, 2015, Pages 300-305

Abstract:

Management and decision-making in modern companies currently significantly affect information collected and distributed to managers through a variety of information and communication technology (ICT). The amount of information is growing due to modern technologies, their constant development and improvement in companies. This large amount of information companies has to be processed and therefore complex information systems such as Business Intelligence (BI) system are used more often. These systems are designed to support deciding of leading workers in the company. They are very difficult and expensive with regard to information infrastructure, technical equipment and staff of the company. To ensure efficient use of these expensive systems it is essential to provide constant mapping and implementing the new trends in the development and use of the systems. This paper describes the possibility of improving efficiency within business intelligence systems in companies.

A review and future direction of agile, business intelligence, analytics and data science

Author(s): DeanneLarson_ VictorChang

Year: 2016

Published:International Journal of Information Management,Volume 36, Issue 5, October 2016, Pages 700-710

Abstract:

Agile methodologies were introduced in 2001. Since this time, practitioners have applied Agile methodologies to many delivery disciplines. This article explores the application of Agile methodologies and principles to business intelligence delivery and how Agile has changed with the evolution of business intelligence. Business intelligence has evolved because the amount of data generated through the internet and smart devices has grown exponentially altering how organizations and individuals use information. The practice of business intelligence delivery with an Agile methodology has matured; however, business intelligence has evolved altering the use of Agile principles and practices. The Big Data phenomenon, the volume, variety, and velocity of data, has impacted business intelligence and the use of information. New trends such as fast analytics and data science have emerged as part of business intelligence. This paper addresses how Agile principles and practices have evolved with business intelligence, as well as its challenges and future directions.

Research Landscape of Business Intelligence and Big Data analytics: A bibliometrics study

Author(s): LiangTing-Peng, LiuYu-Hsi

Year: 2018

Published: Expert Systems with Applications, Volume 111, 30 November 2018, Pages 2-10

Abstract:

Business Intelligence that applies data analytics to generate key information to support business decision making, has been an important area for more than two decades. In the last five years, the trend of “Big Data” has emerged and become a core element of Business Intelligence research. In this article, we review academic literature associated with “Big Data” and “Business Intelligence” to explore the development and research trends. We use bibliometric methods to analyze publications from 1990 to 2017 in journals indexed in Science Citation Index Expanded (SCIE), Social Science Citation Index (SSCI) and Arts & Humanities Citation Index (AHCI). We map the time trend, disciplinary distribution, high-frequency keywords to show emerging topics. The findings indicate that Computer Science and management information systems are two core disciplines that drive research associated with Big Data and Business Intelligence. “Data mining”, “social media” and “information system” are high frequency keywords, but “cloud computing”, “data warehouse” and “knowledge management” are more emphasized after 2016.

تحلیل ارزش مشتری در بانک با استفاده از تکنیک داده کاوی و تحلیل سلسله مراتب فازی

نویسنده (گان): سید علیرضا بشیری موسوی-امیر افسر- آرش محجوبی فرد

سال انتشار: ۱۳۹۴

ارائه شده در: مدرس علوم انسانی(پژوهش های مدیریت در ایران)،(پیاپی ۸۷)، بهار ۱۳۹۴ شماره

چکیده مقاله:
ارزش مشتری به تعامل بالقوه مشتریان با شرکت در طول دوره های زمانی مشخص اشاره می کند. هنگامی که شرکت ها ارزش مشتری را درک کنند و به این موضوع پی ببرند که ارزش مشتری می تواند خدمات سفارشی سازی شده را برای مشتریان مختلف ارائه کند، آنگاه به مدیریت روابط مشتری موثر دست می یابند. این پژوهش بر صنعت بانکداری متمرکز بوده و به طور سیستماتیک تکنیک داده کاوی و مباحث مدیریتی را جهت تجزیه و تحلیل ارزش مشتریان، یکپارچه سازی می کند. در گام نخست روش تحلیل سلسله مراتبی فازی برای وزن دهی به متغیرهای موجود مورد بررسی قرار می گیرد تا میزان تاثیر هر یک از معیارهای مدل DFMT در فرآیند ارزش گذاری مشتریان مشخص گردد. سپس مدل DFMT به عنوان ورودی به تکنیک داده کاوی k-means اعمال می گردد. با استفاده از مدل امتیازدهی پیشنهادی، هرم ارزش مشتری تشکیل می شود که مشتریان را در ۴ طیف ارزشی دسته بندی می کند. در هرم ارزش مشتری بدست آمده از جامعه آماری ۲۸۵ مشتری شعب بانک تجارت زنجان، طیف اول؛ مشتریان پلاتینیومی هستند که ردیف های ارزشی H1 و H2را شامل می شوند که از سطح سودآوری بالایی، برخوردار هستند. طیف دوم؛ مشتریان طلایی که ردیف های ارزشی H3 ، H4 و H5 را شامل می شود. طیف سوم؛ مشتریان نقره ای هستند که ردیف های ارزشی H6 ، H7 و H8 را شامل می شود. طیف چهارم؛ مشتریان سربی که ردیف های ارزشی H9 و H10 را شامل می شود. در واقع این طیف منابع دریافتی از بانک را به هدر داده و بانک باید برای کار با آنها میزان ریسک بالایی را بپذیرد.
کلیدواژگان: مدیریت ارتباط با مشتری، ارزش مشتری، تحلیل سلسله مراتبی فازی، K، means

واکاوی هوش تجاری در دفاتر خدمات گردشگری با رویکرد فازی

نویسنده (گان): سعید سعیدا اردکانی- سید محمد موسوی – میثم شفیعی رودپشتی

سال انتشار: ۱۳۹۳

ارائه شده در: مطالعات مدیریت گردشگری سال نهم پاییز ۱۳۹۳ شماره ۲۷

چکیده مقاله:

امروزه، بسیاری از سازمان ها از جمله دفاتر خدمات گردشگری بر بسیاری از سیستم ها به منظور راه اندازی و بقا کسب و کار خود در این محیط پیچیده ی رقابتی متکی هستند. هوش تجاری به عنوان سیستمی مطرح است که به عنوان یک مزیت رقابتی و عامل حیاتی در موفقیت سازمان ها محسوب می شود. هوش تجاری، با استفاده از یکپارچه کردن داده ها و اطلاعات سازمان امکان کنترل و رد یابی فرایندهای کلیدی سازمان را برای مدیران فراهم کرده و مبنایی برای اخذ تصمیمات اثربخش می باشد. درمقاله حاضر پس از شناسایی ابعاد، عوامل و مولفه های هوش تجاری، با استفاده از روشهای تحلیل آماری، به آزمون فرضیه ها و در صورت پذیرش فرضیه با استفاده از آزمون همگنی واریانسِ نسبت به بررسی اختلافات معنی داری واریانس عوامل پرداخته شده است. در صورت عدم معنی دار بودن اختلاف بین واریانس ها نیز، از آزمون دانکن فازی به TOPSIS جهت دسته بندی و رتبه بندی عاملها استفاده گردیده و در نهایت با استفاده از تکنیک رتبه بندی مولفه های هوش تجاری پرداخته شده است. نتایج تحقیق حاکی از آن است که دفاتر خدمات گردشگری در کلیه ابعاد و عوامل از وضعیت قابل قبولی برخوردار بوده اند به طوری که عامل منابع انسانی در بعد داخلی و مشتریان در بعد خارجی دارای بیشترین اهمیت هستند

رتبه بندی صنایع منتخب بورس اوراق بهادار تهران بر اساس عوامل بنیادی صنعت با استفاده از روش تحلیل پوششی داده ها

نویسنده (گان): سعیده کتاب – سعید فتحی – ناهید یوسفان

سال انتشار: ۱۳۹۴

ارائه شده در: مدیریت دارایی و تامین مالی سال سوم تابستان ۱۳۹۴ شماره ۲

چکیده مقاله:

انتخاب سهام مناسب برای سرمایه گذاری سودآور یکی از مسایلی است که همواره در بازارهای مالی مورد توجه بوده است. اگر سرمایه گذار در انتخاب سهام به طور منطقی تصمیم گیری نماید، می تواند به بازدهی بیش ازمیانگین بازار دست یابد. مقایسه شرکت های مختلف براساس صنعتی که شرکت به آن تعلق دارد و تشخیص صنایع برتر از طریق بررسی عملکرد آنها می تواند راهنمای مفیدی برای ذی نفعان این عرصه باشد. هدف اصلی این پژوهش، رتبه بندی صنایع بورس برای کمک به کارایی بازار سرمایه است و تکنیک مورد استفاده در این راستا، تحلیل پوششی داده هاست. ماهیت الگو بازده ثابت به مقیاس و ورودی محور است که با استفاده از آن ۶۷ شرکت در قالب ۱۶ صنعت مطالعه و در نهایت ۷ صنعت کارا و ۹ صنعت دیگر غیرکارا معرفی شدند، سپس برحسب مرز کارایی ایجاد شده صنایع ناکارا رتبه بندی و برای ارتقای سطح کارایی آنها واحدهایی به عنوان مرجع انتخاب شده اند.

مروری بر پولشویی در بانکداری الکترونیک با استفاده از تکنیک های داده کاوی

نویسنده (گان): رخشان دادی- طیبه امیر رجایی – عبدالریوف بیابانی

سال انتشار: ۱۳۹۶

ارائه شده در: چهارمین کنفرانس ملی فناوری اطلاعات، کامپیوتر و مخابرات

چکیده مقاله:

در دنیای امروز، استفاده از فناوری اطلاعات در تمامی ابعاد زندگی بشر امکان پذیر شده است. یکی از این زمینه ها، صنعت بانکداری الکترونیکی است که امکان انجام عملیات بانکی با استفاده از این تکنولوژی به طور سریع، دقیق، بدون محدودیت مکان و زمان و در هر لحظه از شبانه روز فراهم شده است. از طرفی استفاده از این تکنولوژی ریسک هایی را به همراه دارد که از جمله می توان به انجام عملیات پولشویی اشاره کرد. پولشویان سعی بر این دارند که در بانکداری الکترونیکی از فضای اینترنتی و مجازی بیشترین استفاده را در جهت فعالیت های مجرمانه خود داشته باشند، چرا که نقل و انتقالات پولی بدون واسطه و گمناممی تواند حاشیه امنی را برای آنها ایجاد نماید. روش های پولشویی، با پیشرفت بانکداری الکترونیکی به تدریج پیچیده تر شده و شناسایی آنها با توجه به حجم انبوه اطلاعات، بدون استفاده از سیستم های تشخیص پولشویی میسر نیست. هدف این مقاله آشنایی با روشهای کشف پولشویی در بانکداری الکترونیک با استفاده از داده کاوی است. در نتیجه می توان گفت پول و بانکداری الکترونیکی برای پولشویان ابزار بسیار ارزشمندی محسوب می شود؛ زیرا با کمترین هزینه، بیشترین منفعت را نصیب پولشویان می کند و تنها راه دنبال کردن سیاستهای اصولی ای است که از سوءاستفاده کلانی نظیر پولشویی جلوگیری می کنند و در عین حال به فعالیتهای مشروع و قانونی ای که موجبات پیشرفت جوامع را فراهم می آورند، لطمه ای وارد نمی آورند .

بررسی تأثیر سطح تجمیع اطلاعات مالی بر کیفیت تصمیمات سرمایه گذاری

نویسنده (گان): مهدی ثقفی – مهدی شعبانی – اعظم پوریوسف

سال انتشار: ۱۳۹۶

ارائه شده در: مجله اقتصادی سال شانزدهم فروردین و اردیبهشت سال ۱۳۹۵ شماره ۱و۲

چکیده مقاله:

هدف از پژوهش حاضر، بررسی تأثیر سطح تجمیع اطلاعات مالی بر کیفیت تصمیمات سرمایه گذاری می باشد. پرسش ها و فرضیه های تحقیق بر مبنای تئوری پردازش انسانی اطلاعات در مورد پردازش اطلاعات است. بر اساس این تئوری، میزان خلاصه سازی اطلاعات حسابداری بر کیفیت تعیین قیمت سهام در تصمیم های قیمت گذاری مؤثر است. آزمون شوندگان که مدیران و کارشناسان ارشد شرکت های سرمایه گذاری و کارگزاران بورس اوراق بهادار بودند، تحت آزمون تعیین قیمت سهام قرار گرفتند. این آزمون بر اساس پرسشنامه های مشتمل بر صورت سود و زیان، ترازنامه و صورت گردش وجوه نقدِ ۹ شرکت واقعی بدون نام انجام گرفت و تأثیر سطح تجمیع اطلاعات از طریق تغییر میزان خلاصه سازی اطلاعات در صورت های مالی شرکت های مزبور مورد آزمون قرار گرفت. کیفیت تصمیم گیری نیز از طریق مقایسه قیمت های سهام تعیین شده توسط آزمون شوندگان با قیمت های واقعی و نظر صاحب نظران مورد سنجش قرار گرفت. با استفاده از آزمون فوق، فرضیه های تحقیق شامل سطح تجمیع اطلاعات با برآورد قیمت سهام ارتباط و یافته ها حاکی از آن بود که سطح تجمیع اطلاعات با برآورد قیمت سهام ارتباط معناداری دارد و با افزایش سطح تجمیع اطلاعات، کیفیت تصمیم گیری کاهش می یابد.

اهمیت هوش تجاری و داده های کلان در مدیریت شباهت ها و تفاوت ها

نویسنده (گان): سید حسین سیادت – محمد کاظمی – مریم رنجبر- الهام سرابی

سال انتشار: ۱۳۹۶

ارائه شده در: سومین کنفرانس سالانه مدیریت و اقتصاد کسب و کار، تهران، پژوهشکده مدیریت و توسعه پژوهشگاه فرهنگ و هنر

چکیده مقاله:

داده های کلان چند سالی است که در زمینه فناوری اطلاعات حضور پیدا کرده است و برای اشاره به حجم های عظیمی از داده ها که توسط سازمان های بزرگی مانند گوگل و ناسا ذخیره و تحلیل می شوند، مورد استفاده قرار می گیرد. این مبحث به این دلیل هر روز جذابیت و مقبولیت بیشتری پیدا می کند که با استفاده از تحلیل حجم های بیشتری از داده ها می توان تحلیل های بهتر و پیشرفته تری را برای مقاصد مختلف از جمله مقاصد تجاری، پزشکی و امنیتی انجام داد و نتایج مناسبتری را دریافت کرد . در این مقاله به تعریف هوش تجاری (BI) و داده های کلان ( Big Data ) پرداخته و اشتراک و تفاوت آنها را در زمینه های کاربردی بیان نموده، اهمیت آنها در مدیریت سازمان و برخی از دلایل عدم کاربرد آنها عنوان می شود.

مروری بر محاسبات کلان داده ها و ابرها

نویسنده (گان): احسان فتوح آباد- سعید لاریس- عرفانه نوروزی

سال انتشار: ۱۳۹۶

ارائه شده در: اولین کنفرانس ملی کامپیوتر و فناوری اطلاعات، سپیدان، دانشگاه آزاد اسلامی واحد سپیدان

چکیده مقاله:

در سال های اخیر، تجهیزات فناوری اطلاعات و ارتباطات ارزان تر شده اند. هم چنین داده های عظیمی با حجم ده ها پتابایت یا اگزابایت در مراکز داده ابری ذخیره شده اند. تجزیه و تحلیل این داده های عظیم، اطلاعات ارزشمندی درباره کسب و کار به ما می دهند. برای استفاده و تجزیه و تحلیل این داده های عظیم، به نوع جدیدی از فناوری که متفاوت با فناوری اطلاعات و ارتباطات عادی باشد، نیاز داریم. محقق از طریق تفاوت های موجود در فناوری و بیان چند توصیه برای جامعه پژوهش در جهت آینده، راه حل های رایانش ابری و کلان داده را بررسی کرده است.

.

بیگ دیتا از دیروزتا فردا

نویسنده (گان): رمضان عباس نژاد – کیارش اردشیری لاجیمی

سال انتشار: ۱۳۹۵

ارائه شده در: دومین کنفرانس بین المللی پژوهش در علوم و مهندسی

چکیده مقاله:

در این مقاله ابتدا به بررسی مفهوم بیگ دیتا می پردازیم و سپس دلایل محبوبیت و اهمیت بیگ دیتا را مورد بررسی قرار می دهیم. با توجه به اینکه علوم مبتی بر داده وارد عصر جدید شده است و به کارگیری بیگ دیتا به عنوان یک مزیت رقابتی در سازمان ها رواج پیدا کرده است , آشنایی با بیگ دیتا و مدیریت چالش های مرتبط با آن از اهمیت ویژه ای برخوردار است.

مدیریت و پردازش کلان داده ها

نویسنده (گان): گلناز اردشیری

سال انتشار: ۱۳۹۵

ارائه شده در: کنفرانس بین المللی مهندسی کامپیوتر و فناوری اطلاعات

چکیده مقاله:

بیگ دیتا یا کلان داده چندسالیست که در ادبیات فناوری اطلاعات به یک اصطلاح فراگیر تبدیل شده است.معمولا ، کلان داده ها به مجموعه داده هایی گفته می شود که توانایی دریافت، اکتساب، مدیریت و پردازش آن ها در یک زمان قابل قبول به وسیله فناوری اطلاعات و ابزارهای نرم افزاری و سخت افزاری سنتی وجود ندارد.عبارت Big Data مدت ها است که برای اشاره به حجم های عظیمی از داده ها که توسط سازمان های بزرگی مانند گوگل یا ناسا ذخیره و تحلیل می شوند مورد استفاده قرار می گیرد. اما به تازگی، این عبارت بیشتر برای اشاره به مجموعه های داده ای بزرگی استفاده می شود که رشد فزاینده ی میزان داده ها به حدی است که با ابزارهای مدیریتی و پایگاه های داده سنتی و معمولی قابل مدیریت نیستند.مشکلات اصلی در کار با این نوع داده ها مربوط به برداشت و جمع آوری، ذخیره سازی، جست وجو، اشتراک گذاری، تحلیل و نمایش آن ها است. این مبحث، به این دلیل هر روز جذابیت و مقبولیت بیشتری پیدا می کند که با استفاده از تحلیل حجم های بیشتری از داده ها، می توان تحلیل های بهتر و پیشرفته تری را برای مقاصد مختلف، از جمله مقاصد تجاری، پزشکی و امنیتی، انجام داد و نتایج مناسب تری را دریافت کرد. تحقیقات در زمینه ی کلان داده ها باید روی چگونگی استخراج ارزش آن ها، چگونگی استفاده از داده ها و چگونگی تبدیل آن ها از گروهی از داده ها به کلان داده ها تمرکز کنند

بررسی تأثیر هوش تجاری بر عملکرد سازمان مناطق آزاد

نویسنده (گان): آسیه میرکازهی ریگی

سال انتشار: ۱۳۹۴

ارائه شده در: کنفرانس سالانه مدیریت و اقتصاد کسب و کار

چکیده مقاله:

در دنیای به شدت رقابتی امروز، مدیران برای پیشبرد محصول و خدمات سازمان ها در میدان رقابت، نیازمند راهبردی جهت منحصربفرد شدن هستند. به سخنی دیگر، داشتن ابزاری جهت متمایز سازی سازمان و محصولات از رقبا و محصولاتشان از تکنیک ها و ابزارهای حمایت گر مدیران ارشد و مدیران است. هدف از این پژوهش (BI) سازمان منطقه ازاد ، جهت اخذ تصمیم به موقع و سریع در میان انبوه اطلاعات و داده های گوناگون، سیستم هوش تجاری ارزیابی و بررسی تاثیرهوش تجاری بر عملکرد سازمان منطقه ازاد می باشد. پژوهش حاضر از نوع کاربردی بوده و تحلیلی توصیفی می باشد. ابزار جمع آوری اطلاعات کتابخانه ای است. با مقایسه ی مطالعات قبلی می توان استنباط نمود که نیازهای مدیران از طریق ابزارهای هوش تجاری پاسخ داده می شود.در نتیجه ، بکارگیری سیستم هوش تجاری در یک سازمان در جهت تحلیل و پیش بینی سریع حجم وسیع اطلاعات و تبدیل آن ها به دانش، به مدیران سازمان منطقه ازاد امکان دستیابی به اهداف سازمان نظیر داشتن مزیت رقابتی، حفظ عملکردی مثبت و مستمر و تصمیم گیری بهنگام و صحیح را می دهد که گرفتن تصمیمات صحیح و به موقع در سازمان می تواند موفقیت آن را در عرصه ی رقابت تضمین نماید.

Assessing the Evaluation Models of Business Intelligence Maturity and Presenting an Optimized Model

Author(s): Ruhollah Tavallaei, Sajad Shokohyar, Seyedeh Mehrsa Moosavi, Zahra Sarfi

Year: 2015

Published: International Journal of Management, Accounting and Economics, Vol. 2, No. 9,

Abstract:

The main purpose of this study is to present a new Business Intelligence Maturity Model according to the prior models and their available components to review the level of Business Intelligence maturity in organizations. The business maturity helps all organizations to get safe and effective operations without extra troubles and, executive expenses and trial & error through reporting and data analyzing. Today we can strongly claim that applying the business intelligence solution in an organization makes it more powerful and discriminates it from the others by the increase in competitiveness. This solution causes organizations to use competitive advantages and pioneer through available information. This is a practical research in which we use a survey descriptive method and matter. The result of the study is to create a new model in order to study the level of business intelligence maturity in the banking industry which has maturity levels including initial, immature, controlled, managed and mature, and effective infrastructures on BI system which contains technology, organizational culture, and rules.

ارزیابی عملکرد هوشمندی کسب و کار با استفاده از تحلیل فازی

نویسنده (گان): کامران فیضی، محمدحسین رونقی

سال انتشار: ۱۳۹۲

ارائه شده در: فصلنامه تخصصی پارک‌ها و مراکز رشد، سال نهم، شماره ۳۴

چکیده مقاله:

در عصر ارتباطات استفاده از سیستم های اطلاعاتی برای هر سازمانی امری ضروری است. هوشمندی کسب و کار با تجمیع و یکپارچه سازی داده‌های سازمان و با استفاده از ابزارهای تجزیه و تحلیل مدیران و کارکنان دانشی سازمان را در امر تصمیم‌گیری یاری می‌رسانند. شناخت نحوه کارکرد و ارزیابی عملکرد سیستم‌های هوشمند کسب و کار برای سازمان درجه اهمیت بالایی دارد. این مقاله حاصل پژوهشی است از نوع توصیفی پیمایشی که با هدف ارائه چارچوبی جهت ارزیابی عملکرد سیستم‌های هوشمندی کسب و کار انجام شده است. در این مقاله با استفاده از تکنیک گروه اسمی شاخص‌های مؤثر در ارزیابی عملکرد سیستم‌های هوشمندی کسب و کار مشخص و با استفاده از تکنیک تحلیل سلسله مراتبی فازی وزن شاخص‌ها محاسبه گردیده است. سپس پرسشنامه‌ای برای سنجش شاخص‌ها طراحی گردید. یک شرکت تأمین کننده قطعات خودرو به عنوان مورد مطالعه واقعی انتخاب شد. فرضیه‌هایی جهت ارزیابی عملکرد سیستم هوشمندی کسب و کار تدوین شد و سپس مورد آزمون قرار گرفت. نمونه آماری از بین کارکنان کاربر سیستم هوشمندی کسب و کار انتخاب شدند. از جمله نتایج پژوهش می‌توان به ارائه چارچوبی جهت ارزیابی عملکرد سیستم هوشمندی کسب و کار و وضعیت مطلوب عملکرد این سیستم در شرکت مورد مطالعه اشاره کرد.

شناسایی گره های قدرت در شبکه های اجتماعی به کمک داده کاوی

نویسندگان: الهام مظاهری حسین آبادی، علیرضا طالب پور، علی رضائیان

سال انتشار: ۱۳۹۴

ارائه شده در: پورتال جامع علوم انسانی

چکیده مقاله:

با ظهور شبکه های اجتماعی، روابط انسان ها در اینترنت شکل تازه ای به خود گرفته است. امروزه شمار کثیری از کاربران با اهداف مختلف در شبکه های اجتماعی عضو شده و به فعالیت های گوناگون می پردازند. از سوی دیگر این کاربران بر یکدیگر تأثیر می گذارند که نقش و تأثیرگذاری کاربران مختلف یکسان نیست. برخی از این کاربران به دلایل مختلفی از جمله موقعیت شغلی، میزان تحصیلات یا نوشته های جذاب، تأثیر بیشتری بر کاربران دیگر دارند. این کاربران که ما از آن ها به عنوان گره های قدرت نام می بریم می توانند نظر و دیدگاه کاربران زیادی را تغییر داده و به سمت و سوی خاصی سوق دهند.هدف این پژوهش شناسایی گره های قدرت در شبکه اجتماعی تبیان از طریق کشف الگوهای پنهان در خصیصه های کاربران است. تحقیق حاضر بر اساس روش شناسی استاندارد CRISP-DM انجام شده است. بدین منظور پس از شناسایی گره های قدرت بر اساس مجموع امتیازات به دست آمده از سه شاخص مرکزیت بینیت، رتبه صفحه و فعالیت های کاربران ،با استفاده از الگوریتم های درخت تصمیم به طبقه بندی این کاربران اقدام شده است.نتایج به دست آمده نشان داد که مهم ترین ویژگی ها در تعیین میزان قدرت یک کاربر در شبکه اجتماعی تبیان تحصیلات، سن و جنسیت می باشند.

هوش تجاری: مفهوم سازی و ایجاد مقیاسی جهت سنجش زیرساخت های آن

نویسندگان: آرش حبیبی، اعظم سرافرازی، پدیده فدایی فرد

سال انتشار: ۱۳۹۴

ارائه شده در: فصلنامه اختصاصی تبلیغات و بازاریابی پارس مدیر

چکیده مقاله:

هوش تجاری از دیدگاه علمی و عملی مورد توجه پژوهشگران آکادمیک و مدیران سازمان ها قرار دارد. سازمان ها با استفاده از این فناوری درصدد توسعه توانمندی های خود و کسب مزیت پایدار رقابتی هستند. مطالعات انجام شده پیشین بیشتر جنبه توصیفی داشته و بر اهمیت هوش تجاری تاکید شده است. تاکنون مقیاس جامع و کاملی برای ارزیابی وضعیت سازمان ها برای بکارگیری هوش تجاری صورت نگرفته است. هدف این پژوهش ارائه مقیاسی جامع جهت سنجش زیرساخت های هوش تجاری در سازمان است.
مطالعه حاضر یک پژوهش بنیادی است که براساس روش تحقیق علمی و یک دوره پنج ساله از بکارگیری هوش تجاری در سازمان های مختلف صورت گرفته است است. روایی مقیاس با استفاده از تحلیل عاملی تائیدی مورد تائید قرار گرفته است. داده های آماری نیز از ۷۸ شرکت متوسط و بزرگ گردآوری شده است. در این مطالعه با استفاده از روش تحقیق علمی، مقیاسی عملیاتی برای پیاده سازی هوش تجاری ارایه شده است. نتایج نشان داده است وجود بستر سخت افزاری و نرم افزاری مناسب مهمترین زیرساخت های فنی بکارگیری هوش تجاری در سازمان است. پشتیبانی مدیریت ارشد، آشنایی مدیران با هوش تجاری، احساس نیاز به شفاف سازی اطلاعات، وجود فرایندهای ایجاد داده و فرایندهایی برای یکپارچگی داده ها نیز مهمترین زیرساخت های مدیریتی هستند. مهمترین محدودیت این مطالعه آن است که تنها در ایران صورت گرفته است. این مقیاس به عنوان یک چارچوب مرجع می تواند توسط پژوهشگران دیگر مورد استفاده قرار گیرد.

Author(s): YuqianLu- XunXu

Year: 2019

Published: Robotics and Computer-Integrated Manufacturing, Volume 57, June 2019, Pages 92-102

Abstract:

In their daily business, bank branches should register their operations with several systems in order to share information with other branches and to have a central repository of records. In this way, information can be analysed and processed according to different requisites: fraud detection, accounting or legal requirements. Within this context, there is increasing use of big data and artificial intelligence techniques to improve customer experience. Our research focuses on detecting matches between bank operation records by means of applied intelligence techniques in a big data environment and business intelligence analytics. The business analytics function allows relationships to be established and comparisons to be made between variables from the bank’s daily business. Finally, the results obtained show that the framework is able to detect relationships between banking operation records, starting from not homogeneous information and taking into account the large volume of data involved in the process.