代做COMPSCI 753 Algorithms for Massive Data (Exam) SEMESTER TWO, 2022代做留学生SQL 程序

COMPSCI 753

COMPUTER SCIENCE

Algorithms for Massive Data

SEMESTER TWO, 2022

1    Locality-Sensitive Hashing

Given three documents S1, S2 , S3  and a customized query document q:

S1  = {0, 1, 2}, S2  = {0, 3, 4}, S3  = {1, 3, 4}, q = {h(y), 3, 4};

h(y) = y   mod 5.

where y is the first digit of your Student ID. For instance, suppose my Stu- dentID=6xxxxx, my query document would be q=  {1, 3, 4}, where  1  =  (6 mod 5).

1.1    Computing MinHash Signatures

1.  Generate the bit-vector representation for {S1, S2 , S3 , q} in shingle space {0, 1, 2, 3, 4}.      [2 marks]

2.  Generate the MinHash matrix for {S1, S2 , S3 , q} using the following four MinHash functions.        [4 marks]

h1 (x) = (2x +1)    mod 5

h2 (x) = (3x +3)    mod 5

h3 (x) = (x +5)    mod 5

3.  Among the hash functions, h1 , h2 , h3 , which one gives the true simulated permutation?          [1 mark]

4.  Consider the query q and estimate the signature-based Jaccard similari- ties: J(q, S1 ), J(q, S2 ), and J(q, S3 ).       [1 mark]

1.2    Tuning Parameters for rNNS

In our lecture, we have learnt to formulate the collision probability (i.e., S- curve) given the number of bands b and the number of rows per band r as follows: Pr(s) = 1 − (1 − sr )b.

Consider three sets of parameters (r=2,b=10), (r=1,b=10), (r=10,b=50). The collision probabilities for similarity s in range of [0,1] for each (r ,b) are pro- vided accordingly as in Table 1:

1. Which settings give at most 5% of false negatives for any 60%-similar pairs? Briefly explain the reason.        [3 marks]

2. Which settings give at most 20% of false positives for any 20%-similar pairs? Briefly explain the reason.        [3 marks]

Table1.: Collision Probabilities

1.3    c-Approximate Randomized rNNS

Consider a family transformation from (d1 , d2 , p1 , p2 )-sensitive to (d1 , d2 , 1 − (1 − p1(k))L , 1 − (1 − p2(k))L )-sensitive, where k and L refer to the number of hash functions and the number of hash tables, respectively.

1.  Briefly describe steps to achieve such transformation.              [4 marks]

2. What is the expected impact on probability bounds after the transfor- mation with the k and L, respectively?      [4 marks]

3.  Consider hash table size l = 10, MinHash functions k = 5, and 534 news articles. In phase one hashing, I generated signature matrix for l times. In phase two hashing, I constructed LSH hash tables of size l × m (m: the number of buckets). For each hash table lj, I computed the collision distribution for  all  articles  across  m  =  600  buckets  and  reported  a heatmap  plot  as  follows  (i.e.,  m:  x-axis,  l:  the  y-axis).  The  values  at (mi, lj)  is  the  number  of colliding  articles  at  bucket  mi   and  table  lj . What is the summation of (mi, lj) ∀mi  ∈ [0, 599] for each hash table lj? [3 marks]

2    Data Stream Algorithms

2.1    Bloom Filter

1.  How can Bloom Filter improve the false positive ratio? Why does that work?        [4 marks]

2.  Suppose we have n bits of memory available and set S has m members. Instead of using k hash functions, where each mapping an element to a bit in the main memory, we could divide the n bits into k subarrays (assume n is divisible by n), and then use the i-th hash function, i ∈ [1, k], to the i-th subarray. As a function of n, m and k, what is the probability that a bin has at least one ball in the new framework?         [2 marks]

3.  How does the new framework compare with using k hash functions into a single array?      [4 marks]

2.2 Misra-Gries Algorithm

1.  Given the data stream below, perform the Misra-Gries algorithm with k = 3 counters and present the summary, including the elements and its counter values, when the execution of the algorithm is finished. [2 marks]

S = {4, 46, 14, 46, 57, 46, 22, 57}

2.  Recall in Assignment 2, there was a request to “report the average number of times the decrement triggered by  Misra-Gries over  a data stream” . What expected number of times has the Misra-Gries summary triggered the decrementsteps after processing the given stream? Please derive your answer as a function of m and k.   [3 marks]

2.3    Count Sketch Algorithm

Consider the same data stream S and hash functions below. Given the sign hash functions below, perform. the Count Sketch algorithm and present the (i) hash table, (ii) counter matrix, and (iii) estimated frequency of each element in a stream after processing all elements.                 [10 marks]

h1 (x) = x   mod 3                    s1 (x) = ((2x +1)    mod 3)    mod 2

h2 (x) = (3x +1)    mod 3         s2 (x) = ((3x +2)    mod 3)    mod 2

h3 (x) = (5x +2)    mod 3         s3 (x) = ((4x +2)    mod 3)    mod 2

3    Algorithms for Graphs

3.1 PageRank

Given a directed graph G:

1.  Give the column-stochastic adjacency matrix of the above graph G. [2 marks]

2.  Compute the PageRank of the above graph G without teleport. [4 marks]

3. If teleport is applied, each node has (1−β) chance to teleport to all other nodes. What changes will be observed on the ranking of the four nodes when (1 − β) increases. What if β = 0? Explain your answer.  [4 marks]

3.2    Community Detection

1.  Draw an example graph of four nodes, on which the three graph cut criteria (i.e., MinCut, RatioCut and NormalizedCut) produce the same bi-partitioning.                      [4 marks]

2.  Compute the edge betweenness for each edge in the graph below. Which edge is to be removed?        [8 marks]

3.3    Influence Maximization

What is the most probable set of influenced nodes by running the Indepen- dent Cascade model on the seed set S = {v1 }? Explain your answer. (Hint: Consider the probability of each deterministic sub-graphs. There could be multiple deterministic sub-graphs that result in the same set of influenced nodes.)          [8 marks]

4    Recommender Systems

4.1    Collaborative ltering

Given the following user-item interaction matrix of 4 users and 5 items:

Apply the user-based collaborative filtering algorithm that considers  the global bias bg, user bias bi(user)  and item bias bj(item) . Use Pearson correlation coefficient to compute the user similarities. Give the top-1 recommended item to user u3 . [8 marks]

Note: The predicted ratings should round to one decimal place.

4.2    Factorization Machines

1.  Explain the difference between tensor decomposition and factorization machines in context-aware recommendation, in terms of the computation cost and the way of modeling correlations among features.      [4 marks]

2.  A tourism recommender system is to be upgraded for the support of travel package recommendations. Each travel package is a non-empty set of landmarks. Users can post their ratings on a single landmark or the whole travel package. The table below shows all ratings exist in the database.

(a)  Describe a memory-based collaborative filtering algorithm that can  recommend new travel packages (e.g., {l1 , l3 }).         [2 marks]

(b)  Convert each of the above rating records as an input feature vector  for factorization machines. Explain how factorization machines rec- ommend new travel packages based on your input feature vectors.      [4 marks]

(c)  List one advantage of factorization machines compared to the memory- based collaborative filtering algorithm in travel package recommen-  dation.                 [2 marks]





热门主题

课程名

mktg2509 csci 2600 38170 lng302 csse3010 phas3226 77938 arch1162 engn4536/engn6536 acx5903 comp151101 phl245 cse12 comp9312 stat3016/6016 phas0038 comp2140 6qqmb312 xjco3011 rest0005 ematm0051 5qqmn219 lubs5062m eee8155 cege0100 eap033 artd1109 mat246 etc3430 ecmm462 mis102 inft6800 ddes9903 comp6521 comp9517 comp3331/9331 comp4337 comp6008 comp9414 bu.231.790.81 man00150m csb352h math1041 eengm4100 isys1002 08 6057cem mktg3504 mthm036 mtrx1701 mth3241 eeee3086 cmp-7038b cmp-7000a ints4010 econ2151 infs5710 fins5516 fin3309 fins5510 gsoe9340 math2007 math2036 soee5010 mark3088 infs3605 elec9714 comp2271 ma214 comp2211 infs3604 600426 sit254 acct3091 bbt405 msin0116 com107/com113 mark5826 sit120 comp9021 eco2101 eeen40700 cs253 ece3114 ecmm447 chns3000 math377 itd102 comp9444 comp(2041|9044) econ0060 econ7230 mgt001371 ecs-323 cs6250 mgdi60012 mdia2012 comm221001 comm5000 ma1008 engl642 econ241 com333 math367 mis201 nbs-7041x meek16104 econ2003 comm1190 mbas902 comp-1027 dpst1091 comp7315 eppd1033 m06 ee3025 msci231 bb113/bbs1063 fc709 comp3425 comp9417 econ42915 cb9101 math1102e chme0017 fc307 mkt60104 5522usst litr1-uc6201.200 ee1102 cosc2803 math39512 omp9727 int2067/int5051 bsb151 mgt253 fc021 babs2202 mis2002s phya21 18-213 cege0012 mdia1002 math38032 mech5125 07 cisc102 mgx3110 cs240 11175 fin3020s eco3420 ictten622 comp9727 cpt111 de114102d mgm320h5s bafi1019 math21112 efim20036 mn-3503 fins5568 110.807 bcpm000028 info6030 bma0092 bcpm0054 math20212 ce335 cs365 cenv6141 ftec5580 math2010 ec3450 comm1170 ecmt1010 csci-ua.0480-003 econ12-200 ib3960 ectb60h3f cs247—assignment tk3163 ics3u ib3j80 comp20008 comp9334 eppd1063 acct2343 cct109 isys1055/3412 math350-real math2014 eec180 stat141b econ2101 msinm014/msing014/msing014b fit2004 comp643 bu1002 cm2030
联系我们
EMail: 99515681@qq.com
QQ: 99515681
留学生作业帮-留学生的知心伴侣!
工作时间:08:00-21:00
python代写
微信客服:codinghelp
站长地图