Tokenization

Tokenization، توکنایزیشن، توکن‌سازی

Tokenization به عنوان فرآیند جایگزینی یک عنصر داده حساس با یک معادل غیرحساس مانند یک توکن تعریف می‌شود. قابل توجه است که توکن‌ها هیچ معنا یا ارزش بیرونی یا قابل بهره‌برداری ندارند.

مطالب مرتبط با واژه
6 ساعت قبل
آخرین واژه‌ها
سبد خرید
ورود

هنوز حساب کاربری ندارید؟

تامین سرمایه