• Home
  • Product
    • Capabilities
    • Technology
    • TalkGPT
    • Large Language Model
  • Industry Solutions
    • Telecommunication
    • Banking & Finance
    • Insurance
    • Healthcare
    • E-Commerce
  • About Us
    • Company
    • Join Us
  • Blog
    • Featured Article
      • English
      • Bahasa Indonesia
    • News
  • Home
  • Product
    • Capabilities
    • Technology
    • TalkGPT
    • Large Language Model
  • Industry Solutions
    • Telecommunication
    • Banking & Finance
    • Insurance
    • Healthcare
    • E-Commerce
  • About Us
    • Company
    • Join Us
  • Blog
    • Featured Article
      • English
      • Bahasa Indonesia
    • News
Schedule a Demo

  • Home
  • Product
    • Capabilities
    • Technology
    • TalkGPT
    • Large Language Model
  • Industry Solutions
    • Telecommunication
    • Banking & Finance
    • Insurance
    • Healthcare
    • E-Commerce
  • About Us
    • Company
    • Join Us
  • Blog
    • Featured Article
      • English
      • Bahasa Indonesia
    • News
Schedule a Demo

Data protection

01
Jun
Pengenalan Talkbot  ·  Teknologi Voice AI
Resiko Keamanan Data Dalam Penggunaan Generative AI Tools dari Pihak Ketiga
Jennifer Zhang

Jennifer Zhang

CEO & Co-Founder

Berbagai generative AI tools seperti ChatGPT, Bard dan Bing search telah mengubah bagaimana cara perusahaan berinteraksi dengan customer, memproduksi hasil dan menjalankan tugas lainnya. Namun, penggunaan dari produk-produk ini juga meningkatkan kekhawatiran mengenai keamanan data dan perlindungan data. Pada artikel ini, kita akan mengupas mengenai resiko dari penggunaan generative AI tools dari pihak ketiga dan memberikan beberapa saran untuk memastikan bahwa perusahaan Anda menggunakan tools ini dengan aman dan bertanggungjawab.

 

Generative AI dan data security

Salah satu resiko utama yang dikaitkan dengan penggunaan generative AI tools adalah kemungkinan adanya pelanggaran atau kebocoran data. Karena tools ini didesain untuk dapat menghasilkan hasil secara otomatis, tools ini seringkali mengumpulkan dan menyimpan jumlah data yang besar. Hal ini yang menjadi alasan utama mengapa banyak institusi keuangan seperti JP Morgan Chase dan Deutsceh Bank hanya memberikan penggunaan terbatas bahkan melarang penggunaan ChatGPT di tempat kerja.

Resiko yang ada dalam penggunaan generative AI tools pihak ketiga ini tidak terlalu terlihat jelas bagi banyak orang. Karena ChatGPT memiliki tool yang bergantung pada kemampuan machine learning, interaksi apapun dengan bot ini akan digunakan sebagai data training yang akan digunakan untuk penggunaan selanjutnya. Hal ini berarti semua informasi yang telah dibagikan melalui chat akan disimpan pada server – termasuk data yang mungkin sensitive, personally identifiable information (PII). Karena data ini berada di luar perangkat dari si pengguna, maka apabila ada kebocoran data maka akan sulit untuk diambil kembali dan dihapus.

Kekuatan dari generative AI sangat mengesankan, karena itu banyak orang telah menggunakannya dan mengintegrasikannya ke dalam keseharian mereka, seperti menulis e-mail atau coding. Hal tersebut yang menjadi penyebab kekhawatiran dari Samsung, yang juga telah melarang penggunaan generative AI tools dalam lingkungan pekerjaan. Hal ini terjadi setelah beberapa developer meng up load source code ke dalam ChatGPT, dan berpotensi membagikan informasi sensitive terkait hak cipta pada pihak ketiga.

 

Menggunakan Generative AI Secara Bertanggungjawab

Resiko yang menyertai penggunaan generative AI sangat bergantung pada bagaimana kita menggunakannya. Karena tools ini membantu meningkatkan efisiensi kita, sangat mudah untuk menggunakannya tanpa batasan. Namun, ketika kita menyadari bagaimana teknologi bekerja, kita akan mulai memiliki rasa khawatir mengenai perlindungan data. Berikut ini adalah beberapa langkah untuk menghindari kebocoran data ketika menggunakan generative AI tools –

  1. Batasi data yang Anda bagikan : hanya bagikan data yang diperlukan untuk tool tersebut berfungsi, dan pastikan bahwa semua data yang sensitive dibuat anonym, dibuat (seperti menggunakan persentasi atau menggunakan a factor of 10), atau tidak dibagikan sama sekali.
  2. Edukasi karyawan Anda : pastikan semua karyawan yang menggunakan tool ini sudah mendapatkan training mengenai perlindungan data dan privasi. Bantu mereka untuk memahami resikonya sehingga mereka dapat terhindar dari membagikan informasi sensitive seperti hak cipta atau informasi hal milik (proprietary information).
  3. Simpan data sendiri dengan menggunakan Local Large Language Mode (LLM) : daripada mengirimkan data kepada pihak ketiga, Anda dapat menggunakan solusi AI yang mengandalkan local language models. Hal ini memerlukan pengembangan LLM yang unik untuk perusahaan Anda, yang dilakukan oleh penyedia solusi AI.
 

Manfaat Penggunaan local large language model (LLM)

Pilihan ketiga untuk memastikan keamanan dan proteksi data perusahaan adalah cara yang dilakukan oleh Bloomberg, perusahaan jasa keuangan. Bloomberg mengembangkan language modelnya sendiri yang dikenal dengan BloombergGPT, yang dibuat secara khusus untuk memenuhi kebutuhan dari industry keuangan. Bloomberg membuat LLM dengan 50 milyar parameter terdiri dari berbagai data dan informasi spesifik mengenai keuangan. Tim AI Bloomberg memutuskan untuk memanfaatkan kekayaan data yang telah dikumpulkan selama 40 tahun, dan membuatnya menjadi data dasar untuk solusi generative AI buatan mereka sendiri.

BloombergGPT merupakan contoh yang baik dari domain specific LLM yang dapat melebihi general purpose LLM dalam bidang yang lebih spesifik – yang dalam kasus ini, pasar keuangan. Dan meskipun Bloomberg mungkin belum memutuskan untuk mengembangkan GPT atau LLM nya dikarenakan alasan keamanan, dengan memilikinya dapat memastikan bahwa karyawannya tidak akan secara tidak sengaja membagikan data sensitive keluar dari perusahaan. BloombergGPT siap untuk membantu karyawannya dengan menyediakan laporan yang akurat dan juga untuk memproses jumlah data yang besar yang masuk melalui Bloomberg Terminal.

Generative AI tools menawarkan keuntungan yang luar biasa bagi perusahaan yang ingin otomisasi tugas pekerjaan dan menghasilkan hasil dengan cepat dan efisien. Namun, penting untuk diketahui bahwa tools ini juga memiliki resiko mengenai keamanan data dan perlindungan data. Memiliki domain specific LLM sendiri tidak hanya akan membantu dalam mengurangi kebocoran data namun juga memberikan karyawan keuntungan dari penggunaan generative AI.

Ingin melihat bagaimana memiliki model bahasa khusus untuk bisnis atau domain Anda dapat memberikan manfaat bagi bisnis Anda? Hubungi salah satu spesialis kami hari ini.
Jelajahi LLMs

03
May
Talkbot Basics  ·  Voice AI Technology
The data security risks of using third-party generative AI tools
Jennifer Zhang

Jennifer Zhang

CEO & Co-Founder

Generative artificial intelligence (AI) tools like ChatGPT, Bard, and Bing search have revolutionized the way companies interact with customers, generate content, and perform other tasks. However, the use of these tools also raises significant concerns around data security and data protection. In this article, we’ll explore the risks of using third-party generative AI tools and offer some tips for ensuring that your company is using these tools safely and responsibly.

Generative AI and data security

One of the primary risks associated with using generative AI tools is the potential for data breaches or leaks. Because these tools are designed to generate content automatically, they often collect and store large amounts of data. This is the main reason why many financial institutions like JP Morgan Chase and Deutsche Bank have either restricted or outright banned the used of ChatGPT in their workplaces.

The risks involved in using these third-party generative AI aren’t obvious to many. Because ChatGPT has an iterative tool that relies on machine learning capabilities, any interaction with the bot is used as training data for future interactions. This means any information shared in the chat is saved in the AI engine’s servers – data which may include sensitive, personally identifiable information (PII). Because this data resides outside the user’s infrastructure, it will be hard to retrieve and delete if and when a data leak occurs.

The power of generative AI is impressive, which is why many people have embraced it and integrated it into their day-to-day tasks, such as drafting emails or generating code. However, this latter case was the cause for concern for Samsung, which has also banned the use of generative AI tools in the workplace. This comes after engineers have uploaded a source code into ChatGPT, potentially sharing sensitive intellectual property (IP) to a third party.

Using generative AI responsibly

The risks that come with using generative AI is largely tied to how people use it. Because these tools help increase our efficiency, it can be tempting to use them indiscriminately . However, once you understand how the technology works, you will start having some genuine concerns around data protection. Here are some steps to avoid data leaks when using generative AI tools –

  1. Limit the data you share: Only share the data necessary for the tool to function, and make sure that any sensitive data is either anonymised, made obscure (such as using percentages or using a factor of 10), or not shared at all.
  2. Train your employees: Make sure that all employees who use the tool are trained on data protection and privacy best practices. Help them understand the risks so they can avoid sharing sensitive IP or proprietary information.
  3. Keep data in-house with a local large language model (LLM): Instead of sending data to a third-party, you can use AI solutions that rely on local language models. This requires the development of an LLM specific to your company, done by an AI solutions provider.
 

Benefits of using a local large language model (LLM)

The third option to ensure the security and protection of company data is a path that was taken by Bloomberg, the financial services company. It developed its own language model called BloombergGPT, which is specifically tailored to the needs of the financial industry. The 50-billion parameter LLM has been built using Bloomberg’s financial data and domain-specific knowledge. Bloomberg’s AI team decided to leverage the rich data the company has amassed in 40 years, and translate that into training data for its own generative AI solution.

BloombergGPT is a great example of a domain-specific LLM that outperforms general-purpose LLMs in a narrow field – in this case, financial markets. And although Bloomberg may not have decided to develop its own GPT or LLM for security reasons, having it ensures that its employees won’t inadvertently share sensitive data outside the company. BloombergGPT is poised to help many of the company’s employees by coming up with accurate reports as well as process the vast amounts of data that come through the Bloomberg Terminal.

Generative AI tools offer tremendous benefits to companies looking to automate tasks and generate high-quality content quickly and efficiently. However, it’s important to recognize that these tools also come with risks around data security and data protection. Having your own company- or domain-specific LLM will help mitigate these data leaks while providing your employees the benefits of using generative AI.

Want to see how having your own business- or domain-specific language model can benefit your business? Contact one of our specialists today.
Explore LLMs



Product

  • Capabilities
  • Technology

Industry Solutions

  • Telecommunication
  • Banking & Finance
  • Insurance
  • Healthcare
  • E-commerce

About Us

  • Company
  • Join Us
  • Terms & Conditions

Resources

  • How To Design A Talkbot
  • The Rise Of Conversational AI In Customer Service
  • Understanding Asia – Natural Language Processing in AI

Countries

  • Singapore
  • Indonesia
  • Philippines
  • Thailand
  • China

Email

  • marketing@wiz.ai
Copyright © 2023 WIZ Holdings PTE. LTD. All Rights Reserved
Privacy Policy